在人工智能领域,Transformer作为一种革命性的技术架构,成为了大型语言模型(LLM)和各种语言处理应用的核心。自2017年被提出以来,Transformer不仅提升了自然语言处理(NLP)领域的创新性,还推动了智能写作、智能营销、智能对话等多 ...
最早取得的重大进展的是 神经网络 。1943年,数学家 沃伦·麦卡洛克 受到人脑神经元功能的启发,首次提出“神经网络”这一概念。神经网络甚至比“人工智能”这个术语早了大约12年。每一层的神经元网络都以特定的方式组织,其中 ...
Liquid AI对STAR的最初关注点是自回归语言建模,而传统的Transformer架构长期以来一直占据主导地位。 在研究期间进行的测试中,Liquid AI研究团队展示了STAR生成架构的能力,其性能始终优于高度优化的 ...
再往后,就是人工智能时代了。尽管“人工智能”(AI)这一术语早在计算机领域广泛应用,但直到2020年前后,它才在生物医药领域真正得到重视,这一变革的关键推动力是AlphaFold等突破性模型的问世。
想象一下,Transformer 不仅能“记住”最重要的事情,还能主动“忘记”多余的细节,从而产生更智能、更快速、适应性更强的模型。该研究解决了 Transformer 基础模型缺乏选择性存储信息能力的问题。NAMM ...
此次 Liquid AI 获得由 AMD 领投的 2.5 亿美元融资,将进一步推动其技术研发和市场化进程。据 Liquid AI 联合创始人兼首席执行官 Ramin Hasani 透露,这笔资金将被用于扩大技术团队规模,并加速模型的行业落地。AMD ...
现在,来自Transformer作者之一Llion Jones创办的Sakana AI,以及MIT、OpenAI等研究机构的联合团队,基于大模型提出了一种新的ALife研究范式—— ...
在一项基准测试中,Liquid AI开发的LFM模型跑赢了Meta和微软的流行模型,同时需要的内存更少。该公司推出的STAR新框架在与混合模型相比实现了高达37 ...
近日,在备受瞩目的甲子光年2024甲子引力年终盛典上,RockAI的首席执行官刘凡平因其在AI领域的非凡成就,被评选为“2024中国科技产业创新人物榜”的一员。这一荣誉不仅代表了个人的崇高成就,更是对整个团队在人工智能行业中不懈努力与创新精神的高度认 ...
据报道,亚马逊推出了第三代AI训练芯片Trainum3。新款芯片是首款采用3nm工艺节点制造的AWS芯片,能效提高了40%,性能翻倍提升。苹果还在积极评估最新的AI芯片是否可用于预训练其AppleIntelligence模型,这无疑为AWS的AI芯片技术注入了更多的期待和可能性。
AI 首次自主发现人工生命,Sakana AI 推出全新算法 近日,由 Transformer 八子创立的 Sakana AI,联合来自 MIT、OpenAI、瑞士 AI 实验室 IDSIA 等机构的研究人员,提出了「自动搜索人工生命」的新算法。 据介绍,这次研究者们提出的算法,可以使用视觉-语言基础模型自动发现人工生命。只需要描述要搜 ...
总部位于东京的创业公司Sakana AI的研究人员开发了一种新技术,使语言模型能够更有效地利用内存,帮助企业降低在大型语言模型 (LLM) 和其他基于Transformer的模型之上构建应用程序的成本。