即将到来的变化:Sam Altman 在达沃斯世界经济论坛期间的一些个人观念 即将到来的变化:Sam Altman 在达沃斯世界经济论坛期间的一些个人观念
Altman 在世界经济论坛期间在 Axios House 的一次讲话中指出,我们正迈向一种新的知识工作方式。
不久后,你或许只需询问“今天最重要的邮件是什么”,
AI 就能为你总结这些邮件。Altman 认为,AI 的进步将“极大地加快科学发现的速度”。他不预期这会在 2024 年发生,但他强调,“一旦发生,这将是一个重大事件”。
Altman 透露,
他目前的首要任务是推出新的模型,很可能会被称为 GPT-5。关于 AI 对今年全球选举的影响,Altman 承认他感到“紧张”,但对 OpenAI 在这方面的投资采取了防守态度。
他表示希望避免在选举错误信息上“重蹈覆辙”。最近几周,OpenAI 宣布将加强努力,以减少其模型在 2024 年全球 60 多场选举中的误用和传播错误信息。Altman 没有明确表示会有多少 OpenAI 员工参与解决选举问题,但他否认了仅靠庞大的选举团队就能解决问题的看法。相比于
Meta 和 TikTok 等公司,OpenAI 在选举安全方面投入的人力远少。
回顾过去:去年 11 月,Altman 曾短暂被解除 CEO 职位,不久后又被重新任命。这一变动源于与董事会之间的紧张关系,主要是围绕公司强大技术的增长与约束的内部辩论。
幕后揭秘:Altman 表示,目前还没有关于他的密切伙伴和 OpenAI 联合创始人 Ilya Sutskever 在董事会事件后是否以高级职位返回公司的最新消息。
出人意料的是,Altman 承认他“不太确定 Sutskever 的具体工作状态”。Altman 的兴趣和投资范围远超 OpenAI,涉及从核聚变到芯片制造等多个领域,这让许多人质疑他是否真的足够关注于监督一项他自称可能摧毁人类的技术。Altman 强调“OpenAI 是我当前的工作重点”,并表示认为他参与不支持 OpenAI 的项目是一种“误解”。他还表示,他会继续支持在加入 OpenAI 之前就开始资助的初创企业。
Altman 为 OpenAI 与包括 AP 和 Axel Springer 在内的主要出版商签署的内容授权协议进行了辩护,并对起诉 OpenAI 版权侵权的《纽约时报》发表了批评。
Altman 表示,OpenAI 不依赖《纽约时报》的内容就能构建成功的 AI 模型,但当被问及是否会监督创建仅基于授权和真正公共领域内容的模型时,他没有直接回答:“我希望能有一个简单的答案。” 他说:“我们可以尊重像《纽约时报》这样的公司选择退出,”但他也指出,“《纽约时报》的内容被广泛复制且未被归属,OpenAI 无法避免在这些内容上进行训练。” Altman 还提到,OpenAI 决定允许其模型用于军事目的,是出于支持美国政府的考虑,但他也承认“在很多方面我们必须慢慢起步。” 他对那些在利用 AI 为公司寻找最佳用途上陷入困境的 CEO 提出建议:“我如何让我的内部工作流程更有效率?”
经历了 2023 年被解雇和重新任命为 CEO 的经历后,Altman 的感悟是:“不要让重要但不紧迫的问题持续恶化。” 在被问及他在 2023 年学到了什么并将带入 2024 年时,Altman 开玩笑说:“我对董事会成员有了一些了解。”
OpenAI
GPT-4
(免责声明:本文系结合互联网相关知识进行处理整合。如若侵权,请通过提交信息,我们将按照规定及时处理。) AI深度研究员 0 0
热文推荐