LeCun4岁儿童视觉输入堪比AI20万年阅读量
Meta首席AI科学家Yann LeCun近日在社交平台上详细阐述了人类视觉信息处理与大语言模型(LLM)训练数据量的对比。

LeCun指出,学习过程必然需要一定程度的数据冗余。冗余度越高,从数据中学习到的结构就越多。他强调,仅考虑压缩后的比特数是不合理的。
人眼的信息处理机制:
人眼约有6000万个光敏感器
四层透明神经元将原始传感器数据压缩至100万根视神经纤维
这种60:1的压缩率减少了过度冗余,同时保证视神经穿过视网膜的小尺寸
LeCun估计,压缩后每根视神经纤维的带宽约为每秒0.5字节。据此计算:
4岁儿童累计视觉输入数据量约为5.76e13字节
训练20万亿个token、每个token 3字节的LLM,总数据量为6e13字节
人类需要20万年的阅读时间才能处理这么多文本数据
LeCun总结道,4年时间内儿童接收的视觉数据量,相当于人类20万年的阅读量。这一对比凸显了人类视觉系统的信息处理能力。
版权声明:
作者:shadowrocket
链接:https://www.shadowrocket8.top/192.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。
THE END
二维码


共有 0 条评论