阅读历史 |

第43章 又双叒叕突破啦(1 / 2)

加入书签

孟繁岐的这番话,听起来让人觉得不是那么舒服。

言下之意,给人一种华国ai技术就是不如国外的感觉。

这是李彦弘不大喜欢的,毕竟他这么早就关注ai技术,就是为了研发最前沿最先进的技术。

孟繁岐大概猜到了他的想法,前世他也曾被早期华国大量发表的ai论文所迷惑。

觉得在这个新崛起的技术上,华国已经可以和美国分庭抗礼,不落下风。

虽然alhag震惊了世人,但毕竟有些华而不实。

直到上千亿级别的语言大模型出现,这种纯硬核实力的比拼,让孟繁岐不得不甘拜下风。

实际上,并非是技术手段和算法层面上相差太远。

更多的还是因为优质数据的数量不足。

白度的文心一言,出图的时候甚至会将用户的z文输入翻译成英文,再去作图。

很多较真的友故意测试了中英文差异很大的词汇,比如总线b,鼠标。

文心一言绘出的图像竟然是大巴车和老鼠,这从z文上是完全说不通的事情。

可见即便不是全部,文心一言这个所谓的专注z文的超级大模型,也在相当程度上借助了英文基础的模型权重和技术。

究竟为何要这么做,说到底还是基础不够扎实牢靠。

整理数据,清洗数据,给数据打上高质量的标签。

这些都是脏活累活,见效慢的工作。

把别人公开的数据拿过来跑一跑训一训,多么方便快捷?

以国内996大厂的内卷风气,很难容下长回报周期的基础建设。

早些时候看看不出区别,只觉得国内大厂频繁在榜单上露面,刷榜,又是超过这个,又是超过那个。

直到语言大模型阶段,基础语料数量和质量上的劣势才暴露无遗。

“其实这也不能完全怪华国的大厂风气,美国的互联起步要早,并且很多领域的文献材料归档做得特别好。”孟繁岐也曾仔细思索过这方面的问题。

“像gihub,ariv这样的大型公开社区,里面都是非常优质的外文代码或者论文。这些也不只是美国人自己的积累。而是通过免费公用的形式,收割了全世界的数据。”

“华国人在gihub上贡献的代码行数也不在少数,反过来看看华国的论文社区,就比如知,纯纯就是毒瘤。里面屯点硕博生的论文,还要论页数收费。就连下载之后的阅读器,甚至都需要专门的”

此消彼长之下,差了多少珍贵的数据啊

↑返回顶部↑

书页/目录