欧易okex官方网站
复制成功

分享至

OKX > 快讯 >

爱德华斯诺登:研究人员应该训练人工智能“比我们更好”

2023.04.29

德克萨斯州奥斯汀——新闻自由基金会主席爱德华斯诺登在共识会议上说,人工智能 (AI) 模型可能很快就会超越人类的能力,但前提是我们停止教他们像我们一样思考并让他们“比我们更好” 2023 年


这位前美国国家安全局举报人实际上是从俄罗斯参加会议的,他分享了他对人工智能未来的谨慎乐观看法,该技术在去年秋天 OpenAI 的 ChatGPT 推出后迅速成为主流。虽然斯诺登有时会回应一些专家的警告,即人工智能技术可能会助长坏人,但他也考虑了新兴技术的积极用例。


斯诺登认为,人工智能模型可能会阻碍政府监视,而不是助长侵入性情报计划。


“也许他们可以停止监视公众,开始公众监视,”斯诺登说,“那将是一件好事。”


然而,他也警告说,ChatGPT 和其他日益复杂的人工智能模型的推出,可能会助长大型科技公司和政府推动的侵犯用户隐私的举措。


斯诺登告诉 CoinDesk,为了防止不良行为者采用 AI 技术,人们必须争取开放 AI 模型以保持开放。


“人们将举起‘软件共产主义’的红旗,我们需要宣布模型必须开放,”斯诺登说。


他的批评专门针对越来越不开放的新兴 AI 模型,特别是 OpenAI。


“这是一个糟糕的笑话,对吧?他们拒绝向公众提供他们的交易数据、模型、权重等——但他们是该领域的领导者。他们得到了回报。他们因反社会行为。”


他认为,这项技术的使用方式归结为研究人员如何训练人工智能引擎。目前,许多 AI 培训都需要用勺子喂养 AI 大量在线内容,包括社交媒体评论,斯诺登认为这并不理想。


“他们正在 Reddit 线程上训练 [AI 模型],”斯诺登说。“这就像互联网上的 YouTube 评论。但你想创造一些体面的、好的、有创意和有用的东西。”


他还观察到,目前的培训方法围绕着教导人工智能模型“像我们一样思考”,这可能会限制该技术改善人类的潜力。


“就像孩子一样,我们不需要机器像我们一样,”斯诺登说。“我们需要他们比我们更好。如果他们不比我们好,那我们就做得很糟糕。”

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。本站资讯仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

相关推荐

industry-frontier