杨立昆哈佛大学演讲:生成式大模型很糟糕,我们需要目标驱动的AI
2024年9月22日 - 网易
事实上,我不知道其中的一些符号是什么。每个人都对生成式AI感到兴奋,它们工作得很好,是因为LLM会在数十万亿个token上训练(token是一个子词单位,平均是3/4个单词)。一个token通常是两个字节,训练LLM需要2乘以10的13次方个字节,如果一个人每天阅读8小时,每分钟250个单词,需要17万年,如果你读得快,每天阅读12小...
详情
KAN一作刘子鸣直播总结:KAN的能力边界和待解决的问题|算法|定理|...
2024年5月13日 - 网易
这是因为符号函数本质上是函数的复合,而KAN的核心能力就是捕捉这种函数的复合结构。这里有几个例子可以说明这一点:乘法操作:考虑输入(x)和(y),其目标是预测(x×y)的结果。在经过训练后,模型能够计算((x+y)2)与(x2+y2)。进一步,通过((x+y)2-(x2+y2))的计算,可...
详情
十年来,王兴发了12838条饭否消息...
2018年1月16日 - 百家号
也就是10的60次方都有单独的名称。转@太空小孩现实是,我对这种网站的处理方式一般是开十几个标签页一起等。转@野生乙醚「害羞内向的人就像加载慢的网页。可能有很赞的内容,但很少有人愿意等那么久。」05孔子说的有道理:不患人之不己知,患不知人也。灰心伤心不死心。哀莫大于心不死。跟一个做...
详情