金砖国家即将遭到报复?专家预测美国关税后果
爱德华斯诺登:研究人员应该训练人工智能“比我们更好”
德克萨斯州奥斯汀——新闻自由基金会主席爱德华斯诺登在共识会议上说,人工智能 (AI) 模型可能很快就会超越人类的能力,但前提是我们停止教他们像我们一样思考并让他们“比我们更好” 2023 年。
这位前美国国家安全局举报人实际上是从俄罗斯参加会议的,他分享了他对人工智能未来的谨慎乐观看法,该技术在去年秋天 OpenAI 的 ChatGPT 推出后迅速成为主流。虽然斯诺登有时会回应一些专家的警告,即人工智能技术可能会助长坏人,但他也考虑了新兴技术的积极用例。
斯诺登认为,人工智能模型可能会阻碍政府监视,而不是助长侵入性情报计划。
“也许他们可以停止监视公众,开始为公众监视,”斯诺登说,“那将是一件好事。”
然而,他也警告说,ChatGPT 和其他日益复杂的人工智能模型的推出,可能会助长大型科技公司和政府推动的侵犯用户隐私的举措。
斯诺登告诉 CoinDesk,为了防止不良行为者采用 AI 技术,人们必须争取开放 AI 模型以保持开放。
“人们将举起‘软件共产主义’的红旗,我们需要宣布模型必须开放,”斯诺登说。
他的批评专门针对越来越不开放的新兴 AI 模型,特别是 OpenAI。
“这是一个糟糕的笑话,对吧?他们拒绝向公众提供他们的交易数据、模型、权重等——但他们是该领域的领导者。他们得到了回报。他们因反社会行为。”
他认为,这项技术的使用方式归结为研究人员如何训练人工智能引擎。目前,许多 AI 培训都需要用勺子喂养 AI 大量在线内容,包括社交媒体评论,斯诺登认为这并不理想。
“他们正在 Reddit 线程上训练 [AI 模型],”斯诺登说。“这就像互联网上的 YouTube 评论。但你想创造一些体面的、好的、有创意和有用的东西。”
他还观察到,目前的培训方法围绕着教导人工智能模型“像我们一样思考”,这可能会限制该技术改善人类的潜力。
“就像孩子一样,我们不需要机器像我们一样,”斯诺登说。“我们需要他们比我们更好。如果他们不比我们好,那我们就做得很糟糕。”