📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
AI百模大战:开源崛起 算法创新让位工程实践
AI领域的"百模大战":工程问题取代算法创新
上个月,AI界爆发了一场"动物之争"。一方是Meta推出的Llama模型,因其开源特性深受开发者喜爱。另一方是名为Falcon的大模型,5月问世后力压Llama登顶开源LLM排行榜。
有趣的是,Falcon的开发者是阿联酋的科技创新研究所。180B版本发布后,阿联酋人工智能部长入选了《时代周刊》AI领域最具影响力100人。
如今,只要有一定财力的国家和企业,都在打造自己的大语言模型。仅海湾国家就不止一个玩家,沙特刚刚为国内大学购买了3000多块H100芯片用于训练LLM。
这场"百模大战"的背后,是Transformer算法的功劳。2017年,谷歌在《Attention Is All You Need》论文中公开了Transformer算法,这成为了此轮AI热潮的引爆点。此后的所有大模型,包括GPT系列,都是基于Transformer构建的。
Transformer解决了早期神经网络难以理解上下文的问题,大大提升了训练效率,推动AI进入大模型时代。它让大模型从理论研究变成了纯粹的工程问题 - 只要有足够的数据、算力和模型架构,任何有技术能力的公司都能打造大模型。
这也导致学术界的底层算法创新速度放缓,工程要素如数据、算力、模型架构等成为AI竞赛的关键。有分析认为,即便是GPT-4的竞争力也主要源自工程解决方案,如果开源,竞争对手很快就能复制。
然而,入场容易不代表人人都能成为AI时代的巨头。Meta的Llama系列已成为开源LLM的风向标,拥有庞大的开发者社区。而在性能方面,GPT-4仍遥遥领先,其他模型难以望其项背。
大模型的核心竞争力在于生态建设或纯粹的推理能力,而不仅仅是参数规模。随着开源社区日益活跃,各个LLM的性能可能会趋同。
更大的挑战是盈利模式。除了少数例外,大多数大模型提供商都面临成本与收入严重失衡的问题。高昂的算力成本已成为行业发展的阻力,而软件公司在付出巨大成本后,还没有找到清晰的盈利方式。
随着同质化竞争加剧和开源模型增多,单纯的大模型供应商可能面临更大压力。未来,真正的价值或许不在于模型本身,而在于其应用场景和商业化能力。