DeepSeek掀翻硅谷?来看看美国科技界对DpSk的真实看法人工智能

  DeepSeek     |      2025-02-21 14:19

  DeepSeek是一款基于AI技术的智能搜索引擎,结合深度学习与自然语言处理,提供精准、高效的搜索体验。探索DeepSeek,感受未来智能搜索的无限可能!

DeepSeek掀翻硅谷?来看看美国科技界对DeepSeek的真实看法DeepSeek人工智能

  DeepSeek 作为中国科技界的一颗新星,春节期间,在中国掀起了前所未有的热潮。

  然而,当我们把目光转向大洋彼岸的美国,这个全球科技创新的前沿阵地,DeepSeek又引发了怎样的讨论和关注呢?在美国的科技界,从 AI 专家到数据科学家,从企业家到学术研究者,各个领域的专家们对DeepSeek的看法又是如何?

  我们深度研究了几档海外播客,挑选了一些整理了一些主理人的主要观点,来给你提供对 DeepSeek 对 AI 和整个科技行业的影响的更多元的看法,enjoy!

  Lex Fridman 是一位 AI 研究员、播客主理人和麻省理工学院(MIT)的科学家,以其在机器学习、自动驾驶技术和人机交互领域的研究而闻名。他的研究重点包括深度学习算法在真实世界中的应用,以及人工智能对社会的长期影响。

  此外,他还是一位广受欢迎的播客主持人,其同名节目《Lex Fridman Podcast》以深度对话和跨学科讨论著称,涵盖了人工智能、哲学、物理学、历史等领域,吸引了众多科技领袖、学者和思想家的参与。 Lex Fridman 的风格以理性和思辨著称,他倾向于探讨技术背后的人类意义及伦理问题。他的背景结合了工程学与哲学思考,使他能够从独特的视角审视技术如何塑造未来。

  Dylan 是半导体与 AI 芯片领域的资深分析师,专注研究全球芯片供应链、硬件技术对 AI 发展的影响以及地缘政治对科技产业的制约。他长期关注中国 AI 技术的发展,特别是在中美技术竞争背景下的芯片出口管制、算力资源分配等核心问题。

  Nathan 是机器学习研究员与开源 AI 的积极倡导者,专注于模型训练技术、开源生态建设以及 AI 伦理问题。他在模型训练优化领域有丰富经验,尤其是在混合专家(MoE)和注意力机制创新等架构改进方面有深入研究。

  DeepSeek的优化策略并非限制模型能力,而是通过改进架构为大规模学习扫清障碍。这种方法更像是为赛车设计符合空气动力学的外形,而不是削弱发动机的性能。

  其MOE路由机制赋予模型更大的参数选择自由,同时通过动态负载均衡确保计算资源的高效利用。 这种优化的可移植性值得关注。针对特定模型规模和硬件配置的极致优化可能在架构迭代时需要重新设计,就像F1赛车的碳纤维底盘无法直接用于卡车。

  然而,DeepSeek在工程方法论上已经形成了体系。他们的训练监控系统能够实时捕捉异常模式,例如“微波炉故障”(microwave anomaly,指异常数据导致损失值突增),这得益于数十次大规模训练中积累的诊断经验。

  计算效率的提升永不过时,即使未来算力飞跃,更高效的架构仍然具有重要价值。这意味着在同等资源下,可以探索更多可能性,就像即便有了核聚变能源,人类仍需要研发更高效的电动机。

  DeepSeek的技术路线表明,架构创新是释放模型潜力的关键,而不仅仅是堆砌计算资源。这对算力受限的中国 AI 团队来说,是一条突围之路。

  开源 AI 的未来正在被重新定义,DeepSeek R1 的出现标志着一次重要的行业转折。这是首个顶尖模型采用了完全开放的权重,并允许商业用途不受限制,无论是下游应用、合成数据蒸馏,还是其他创新场景都可以自由使用。

  自 ChatGPT 推出以来,AI 领域从未有过如此彻底的开放模式。此前的开源模型要么技术过时,要么许可证条款复杂,实际应用受限。

  相比之下,Meta 的 LlamA 模型虽然被认为是开放的,但其许可证仍然设置了诸多限制。例如,禁止竞争对手使用、限制某些特定用途(如军事应用)以及要求任何衍生模型必须冠以“Llama”之名。

  这种品牌捆绑策略不仅让开源社区难以接受,也让企业在实际应用中面临尴尬。DeepSeek R1则通过更自由的模式,避免了这些问题,为行业提供了真正开放的选择。

  然而,开源AI的挑战远不止于许可证问题。与开源软件不同,开源AI缺乏类似的正反馈机制。开发一个语言模型需要巨大的算力投入和专业团队支持,成本高昂,门槛极高。这使得当前的开源AI更多依赖意识形态驱动,而非市场需求。例如,Meta等巨头推动开源更多是出于战略考虑,而非生态系统的自然发展。

  要真正推动开源AI生态的成熟,透明化是关键。DeepSeek 团队正在尝试通过展示模型处理问题时调用的训练数据来增加透明度。这种做法充满法律风险,但可能为行业树立新的标杆。只有证明开源模型的数据透明能够带来实际价值,开源AI 生态系统才能走向可持续发展。

  总之,开源AI的未来需要突破技术和资源的双重限制,同时在生态构建上迈出更大胆的步伐。DeepSeek R1的成功为行业提供了一个值得借鉴的方向,但要实现真正的开放和普及,还有很长的路要走。

  Nilay Patel 是《The Verge》的主编,同时也是一位资深的科技记者和分析师,在科技媒体领域有着深厚的影响力。

  他不仅主持了播客节目《Decoder》,这是一档聚焦科技、商业和创新的深度访谈节目,还与团队共同主持了《The Vergecast》,一档围绕科技新闻、产品评测和行业趋势的讨论类播客。这两档节目因其专业性和趣味性深受科技爱好者的喜爱,成为获取前沿信息的重要渠道。

  作为一名律师出身的科技媒体人,Nilay Patel以其对科技与法律交叉领域的独到见解而闻名,他的职业生涯始于 Gawker Media 旗下的科技博客《Engadget》,在那里积累了丰富的写作和编辑经验。

  后来,他参与创立了《The Verge》,一个专注于科技、文化和科学深度报道的媒体平台,并迅速将其发展为行业内的权威声音。Nilay 还是 CNBC 的特约评论员,常在节目中就科技与商业问题发表专业见解。

  长期以来,AI模型的开发被视为一项需要巨额资金和大量计算资源的工程。然而,DeepSeek 的V3和R1模型却以其出色的性能和极低的开发成本,打破了这一固有认知。

  据 Kylie Robison 介绍,DeepSeek 的V3模型在设计上注重效率和成本控制,而R1模型更是凭借其卓越的推理能力,让业界为之震惊。这些成就不仅展示了中国在AI领域的快速进步,更在优化资源使用方面取得了显著成果。

  Nilay Patel 则进一步指出,DeepSeek 的低成本和高性能对AI行业来说是一次颠覆性的事件。它挑战了行业关于计算资源和资金的传统观念,让人们对AI开发的未来充满了新的期待。DeepSeek 的成功表明,AI模型的开发并不一定需要巨额的资金投入和大量的计算资源。这一观点的提出,无疑为AI行业的未来发展提供了新的思路和方向。

  就在“星际之门”计划(Stargate)公布的同一周,扎克伯格还特意在 Facebook 上提醒大家,Meta 正在路易斯安那州建造价值 100 亿美元的数据中心。

  亚马逊也计划在乔治亚州投资110亿美元扩建其亚马逊云服务(AWS),微软曾表示,仅今年就计划在人工智能相关领域投资800亿美元——他们认为其中部分资金会流向星门项目,但大部分早已规划用于扩展现有的Azure云基础设施。

  这就是为什么 DeepSeek 的冲击力如此之大。可以说,这是迄今为止对当前人工智能格局最重大的一次挑战,尤其是对过去几年驱动生成式AI热潮的那种天价融资模式的挑战。

  Nilay 和 Kylie 对 Stargate 这一雄心勃勃的项目提出了诸多质疑,认为这可能更多是一种公关策略,而非实际可行的计划。

  首先,5,000 亿美元的资金需求本身就是一个令人咋舌的数字。OpenAI 目前的财务状况并不支持这样的大规模投资。据报道,OpenAI 的收入并不足以支撑这一庞大的资金需求,这让人对资金来源的真实性产生了质疑。有人直言,500 亿美元这个数字完全是一个编造的数字。

  Stargate 项目的可行性也受到质疑,OpenAI 宣布这一计划的时机,可能更多是为了在政治和商业上获得支持,而不是基于实际的财务能力。

  这样看来,Stargate 项目可能更多是一种公关策略,而不是一个实际可行的计划,即使 OpenAI 能够筹集到部分资金,要在四年内完成 5000 亿美元的投资几乎是不可能的任务。

  Sam Altman 的筹资能力虽然不容小觑,但他能否在短时间内筹集到如此庞大的资金仍然是一个巨大的问号。

  DeepSeek 的开发成本远低于行业巨头如 OpenAI、Meta 和 Google 的模型,但其性能却相当甚至更优。据报道,DeepSeek 的开发成本不到 600 万美元,而 OpenAI 的 GPT-4 据称花费了 1 亿美元。这一巨大的成本差异引发了对 AI 开发成本结构的重新评估。DeepSeek 的成功表明,AI 开发不一定需要巨大的计算资源投入,这可能改变行业的成本结构,为 AI 开发带来新的可能性。

  DeepSeek 的成功不仅展示了其在技术上的突破,更预示着 AI 开发成本结构的重大变化。这种变化将影响整个行业的发展,促使更多企业和研究机构重新评估 AI 开发的策略和资源分配。未来,AI 开发可能会更加注重效率和成本控制,而不仅仅是依赖于大规模的计算资源投入。

  在讨论中,Patel 和 Robison 还提到了 DeepSeek 对 AI 行业的其他影响。例如,DeepSeek 的出现引发了对 AI 开发闭源模式的质疑。尽管 OpenAI 等公司一直采用闭源的方式,但 DeepSeek 的成功表明,开源也可能在 AI 开发中取得显著成果。

  DeepSeek 的成功还引发了对 AI 开发资金投入的重新评估。长期以来,AI 行业一直依赖于大规模的资金投入来推动技术进步。然而,DeepSeek 的低成本开发模式表明,AI 开发不一定需要巨额资金的支持。

  这可能会促使投资人和企业重新考虑对 AI 项目的资金投入策略,更加注重项目的实际效益和成本控制。

  DeepSeek 借力于开源社区的成果,以惊人的速度实现了技术迭代。讽刺的是,OpenAI如今指责 DeepSeek 侵犯知识产权,称其利用了一种名为“蒸馏技术”的方法,以自家模型为基础训练新模型。然而,这种指控显得有些自相矛盾——毕竟,OpenAI最初也曾未经许可抓取互联网数据来训练其模型。

  DeepSeek 的成功揭示了一个重要事实:闭源大模型的先发优势并不像想象中那样牢不可破。那些被寄予厚望的高估值模型,或许并没有坚实的“护城河”。如果一家从中国对冲基金剥离出来的初创公司能在短时间内赶超,是否意味着前沿模型的壁垒正在崩塌?与此同时,在其他科技股下跌的背景下,Meta逆势上涨,这或许反映了市场对开源模式的信心。

  曾经,OpenAI 的高层在面对竞争时表现得颇为自信,认为模仿者无法触及最前沿的技术高度。但 DeepSeek 的表现正在打破这种认知。它不仅在几个关键领域实现了创新,还显著优化了模型性能,成为开源模式潜力的有力证明。

  Neil Lawrence 是剑桥大学首位 DeepMind 机器学习讲席教授,从事机器学习模型研究超过20年,此前曾任亚马逊机器学习总监,现任艾伦·图灵研究所高级 AI 研究员。

  《The Times Tech Podcast》是由《》(The Times)和《星期日》(The Sunday Times)推出的一档每周更新的科技播客,聚焦全球科技领域的最新动态与趋势。节目内容涵盖人工智能革命、科技新闻以及与科技先锋的深度访谈,从伦敦和旧金山两地录制,旨在为听众提供东西方科技发展的多维视角。

  播客由两位资深记者主持:Danny Fortson 是《星期日》的西海岸记者,常驻硅谷,专注于报道科技行业的最新动态,以其深刻洞察和生动叙述风格而闻名;Katie Prescott 是《》的科技记者,专注于人工智能和新兴技术,擅长探讨科技对商业和社会的影响。

  Google、Meta、OpenAI 在因为自己的霸权被挑战而恐慌,但硅谷的应用层初创小公司们,这场技术震荡,更像是一场狂欢。AI 的普及正逐步兑现它“像电力一样无处不在”的承诺,不仅触手可及,还成本低廉,为无数尚未被设想的创新提供了可能性。

  一位硅谷的投资人说,现在,只需一个 Stripe 账户、一个 DeepSeek 账户,再加上三个人,就能启动一家潜力无限的公司。

  DeepSeek 的创新更像是对现有技术的精妙整合——如果说美国团队打造的是粗暴改装的美式肌肉车(比如直接塞进 V8 引擎不顾能效),那他们的作品就像打开梅赛德斯AMG引擎盖时看到的艺术品级工程设计,那种硬件层面的精妙布局令人叹为观止。

  在研读 DeepSeek 团队的论文时,最让 Neil 教授震撼的是两点:

  首先是GPU负载分配,这种硬件层面的深度优化能力,在英国乃至多数机器学习PhD群体中都极为罕见;

  其次是他们的组织管理——众所周知,当AI团队规模超过 35 人就会遇到沟通损耗的困境,而 DeepSeek 似乎以百人规模的团队实现了高效协作,这对组织管理模式的考验非常重要。

  用汽车改装来比喻的话,他们不仅是调整零件位置,更像是把整个引擎拆解重组。

  DeepSeek 的成功来源于算法、软件工程和硬件技术的多元融合,以前,顶尖人才都出自伯克利或杨立昆门下的机器学习PhD,而 DeepSeek 拥有的是既懂算法、又精硬件、还能高效实验的新型复合型人才。

  从学术界的角度出发,Neil 教授认为硅谷现在存在很强的“AGI泡沫”,他认为 Sam 和 Elon 都是很擅长运营公司、很擅长融资、很擅长公关但并不完全理解技术的人。

  他们一位地鼓吹“Scaling Law”,一味地号召注入更多资本,但尼尔教授认为这有问题。

  他认为,如果我们放慢脚步,不是一位地堆资金、堆算力的话,其实能找到不那么花钱的提升模型能力的方法。

  而现在的情况,很像工业革命初期,人们只顾烧煤驱动蒸汽机,却没人停下来思考是否需要改进冷凝系统。

  回顾技术发展史,在航空发展史上,从螺旋桨飞机到喷气式飞机是一次革命性的跨越。同样,在机车发展史上,从蒸汽机车到内燃机车也是一个质的飞跃。这些例子都揭示了一个重要规律:技术的演进往往伴随着“范式转换”,即从一种技术路线转向另一种完全不同、更高效的路径。

  目前的大语言模型主要依赖以下几个特点:需要巨大的数据集来支撑模型的学习、训练和运行模型需要消耗大量算力、通过增加参数数量来提升性能,这种方法虽然有效,但就像“螺旋桨时代”的飞机一样,尽管它能飞,却效率不高。

  DeepSeek 的出现让它们反思,当前的AI架构可能并不是最优解。他们认为,未来可能会出现一种全新的技术路线,就像内燃机比蒸汽机更高效一样。这种新方案可能具备以下特点:

  从整体来看,当前AI的发展可能已经走入了一个“局部最优”的阶段,但未必是通向未来的最佳方向。DeepSeek 让大家开始反思,我们是不是需要彻底重新思考AI的基础架构,是不是未来的突破可能并不是对现有方法的改良,而是一条全新的技术路线。

  Neil 教授认为,英国在 AI 政策上严重失误,他们过度强调 AI 的安全性,并对开源生态进行了过度的打压,这反倒正科技巨头的下怀,而耽误了本国的发展。

  反观同在欧洲的法国,现任总统马纽埃尔·马克龙(Emmanuel Macron)的政策对科技创新友好太多。

  法国政府大力推动人工智能(AI)领域的发展,他与杨立昆等 AI 专家密切合作,积极投资人工智能技术和开源生态,推动法国在这一领域取得竞争力,才促成了像 Mistral 这样的法国AI企业的崛起,使法国在全球AI竞争中占据了一席之地。