谷歌大改 Transformer,“无限”长度上下文来了。现在,1B 大模型上下文长度可扩展到 1M(100 万 token,大约相当于 10 部小说),并能完成 Passkey 检索任务。 ...
11月8日消息,三名谷歌研究人员在最新提交给预印本文献库(ArXiv)的一篇论文中指出,人工智能领域的底层技术深度神经网络transformer并不擅长归纳概括。 ...
“U-Net 已死,Transformer 成为扩散模型新 SOTA 了!” 就在 ChatGPT 占尽 AI 圈风头时,纽约大学谢赛宁的图像生成模型新论文横空出世,收获一众同行惊讶的声音。 ...
最近,一家 AI 初创公司引起了不少人的注意。在推特上宣布成立之时,有不少人为其点赞和转发。 ...

关注我们的公众号

微信公众号