金砖国家即将遭到报复?专家预测美国关税后果
炒作之外:CTO 认为 AI 可以增强而不是取代人类创造力
正如 Crunchdao 首席技术官 (CTO) Phillipe Wassibauer 所断言的那样,由于担心 AI 最终会扼杀创造力,世界末日预测并不是什么新鲜事。然而,Wassibauer 认为,即使是一些最成功的技术解决方案在最终被证明是增强人类创造力的工具之前也面临着类似的阻力。
瓦西鲍尔告诉 Bitcoin.com News,这项技术非但没有扼杀人类创新,反而被证明是“一种更强大的工具,可以降低创造力的障碍”。他指出,任何人都可以轻松地使用 AI 制作带有精心设计的提示的高质量视频,这支持了这一论断。
此外,而不是像一些批评家指出的那样贬低人类的创造力。他认为,这表明“生成式 AI 增强了而不是取代了创作过程。
关于对 AI 的低信任度,Crunchdao 首席技术官指出,隐私担忧和失业担忧是一些关键因素。虽然不是“万能的”,但这位首席技术官认为,去中心化可能是使 AI 与公平和自主等价值观保持一致的步骤,这些价值观可以建立信任。
在与 Bitcoin.com News 分享的其他书面答复中,Wassibauer 谈到了 AI 风险以及当前工程师如何帮助减少这些风险。他还对迄今为止采取的监管措施发表了自己的看法。以下是 Wassibauer 对所发问题的回答。
菲利普·瓦西鲍尔 (PW):AI 的低接受度是由误解、隐私恐惧、不准确、快速发展和失业担忧等因素驱动的。去中心化可以通过用户控制的数据改善隐私、通过可审计系统提高透明度以及减少集中控制来提供帮助。虽然不是万能的,但它是朝着使 AI 与公平和自主等价值观保持一致迈出的一步,这可以重建信任。
俘虏:AI 代理将成为一种主要趋势,尤其是在区块链生态系统中。这些系统是为机器人量身定制的 — 数据可访问,系统可组合,交互无缝。随着金融行业转向区块链,AI 代理利用这些数据的潜力将会增加,从而推动分析和决策方面更智能的自动化、优化和创新。
俘虏:利用代币经济学打造网络效应:在传统应用中,采用率取决于构建出色的产品并找到采用率。在 Web3 中,代币经济学是推动网络效应的关键。仔细设计它们以奖励早期采用者并调整参与者之间的激励措施以促进增长和协作,这一点至关重要。
决定去中心化级别:完全去中心化的协议是最终目标,但过早实现完全去中心化会减慢产品开发和决策速度。为初始方案迭代找到合适的平衡点是具有挑战性的,但对于长期成功至关重要。
法规遵从性:在新兴领域运营意味着要应对不明确的法规,这需要花费大量时间和精力。在保持敏捷性的同时构建合规产品是一项持续的挑战。
俘虏:这种恐惧随着每一项新技术而出现——书籍、计算机、互联网——你能想到的。然而,这些最终都提高了人类的创造力。在我看来,生成式 AI 也不例外。
它只是一个更强大的工具,可以降低创造力的障碍。例如,您现在可以制作带有精心设计的提示的高质量视频,而这些视频以前需要大量预算和大量努力。
人类的创造力并没有消失;它正在发生变化。我们不再专注于运营任务,而是朝着构思、方向和规划的方向发展。生成式 AI 增强了而不是取代了创作过程。
俘虏:AI 系统严重依赖人工输入,此类系统奖励它们从中学习的数据的创建者是有意义的。在 CrunchDAO,我们正在构建一个体现这一原则的系统。随着 IP 的成熟和自主性,我们确保 IP 归创作者所有。每当使用他们的模型时,他们都会赚取版税,从而创造被动收入的潜力。
此外,我们计划将系统产生的收入用于代币回购和销毁,为网络参与者提供进一步的好处。这种方法不仅可以调整激励措施,还可以确保透明度和问责制。我预计类似的模型会在其他去中心化系统中出现。
俘虏:我对我们明年扩大规模的实时预测系统感到特别兴奋。这些系统处理实时数据流以生成预测,从中端市场价格预测开始。下一个用例可能会侧重于改进链上系统,为去中心化生态系统创造即时且可操作的价值。
更让我兴奋的是这些系统是如何演变的。它们可以持续调整,添加新模型并通过可组合方法聚合输出。多个参与者有助于优化预测,确保最佳想法脱颖而出。这创造了一个透明和开放的系统,任何人都可以参与,那些为价值创造做出贡献的人会得到一致的奖励。
至于去中心化计算,它是 CrunchDAO 路线图的核心。它符合我们的愿景,即建立一个民主且可扩展的预测建模生态系统,实现实时 AI/ML 功能,同时确保预测和见解生成方式的效率、公平性和包容性。
PW:目前,我们的数据科学家和博士在预测中间市场价格、因果关系分析、癌症预测和投资组合管理等主题上参与高级别挑战。公司和基金会找到我们来测试和挑战他们的内部方法,这通常会带来新的、更有效的方法的开发。这些挑战赛以锦标赛的形式进行,我们的去中心化方法一再优于传统的内部模式。
但这仅仅是个开始。我们正在构建一个去中心化的网络,参与者可以在其中贡献模型和预测,将平台发展成为协议驱动的创新预测建模生态系统。这种方法促进协作,激励创造力,并确保持续改进,从而创建一个比集中式替代方案更具活力和有效的系统。
俘虏:机器学习本身没有固有的风险,尤其是在我们这样的情况下,它就是通过分析数据来寻找预测。当个人或小规模团队使用 AI 时,我并不太担心。它只是增强创造力或改进流程的另一种工具。这并不是说这不会在这里用于错误的结果,但它不会对人类构成风险。
当民族国家或大型实体使用 AI 时,真正的风险就会出现。这些参与者拥有大规模使用 AI 的资源,可能用于监视、操纵或自主武器系统。问题不在于技术,而在于其使用背后的意图。
BCN:您认为 AI 在为产品开发决策提供信息方面应该发挥什么作用,您是如何将 AI 驱动的洞察融入您以前的角色中的?
俘虏:AI 已经通过帮助团队获得见解的分析工具来塑造产品开发。例如,在 Dune,我们构建了 AI 系统来帮助创建或修复 SQL 查询并生成可视化,从而使决策更加简化。
在 CrunchDAO,我们通过设想一个旨在解决不同问题的模型网络来进一步实现这一目标。这些模型根据其效用和影响进行奖励和提升,使生态系统能够随着时间的推移进行自我优化。
这与我预见的未来一致 — AI 代理持续监控数据、学习模式并主动生成想法或提案,从而推动决策的效率和创新。
俘虏:现在判断这些担忧有多合理还为时过早。人工智能仍处于起步阶段,虽然不可避免地会出现滥用或意外后果,但我不认为平民使用这项技术时会出现重大问题。是的,会有错误的用例,例如错误信息或诈骗,但技术本身通常会提供工具来抵消这些风险,例如 AI 驱动的欺诈或虚假信息检测系统。
我更担心的是人工智能何时在州一级或由大型实体武器化或控制。这里的风险,如自主武器、监控或大规模操纵,要大得多。如果只有大实体或国家才能控制这项技术,那将特别令人担忧,因为它可能会集中权力并造成严重的不平衡。
PW:有拟议的法律,但还没有多少有效。总的来说,明确监管是一个积极的步骤,因为它为开发人员和企业提供了指导方针。然而,如果法规变得过于严格或无法适应 AI 技术的快速发展,就会存在扼杀创新的真正危险。这里尤其如此,因为我们正处于人工智能繁荣的起步阶段,从创新方面和监管方面来看,未来几年会发生什么尚不清楚。
据我了解,平衡在于制定解决关键问题(如偏见、隐私和问责制)的法规,而不会给初创公司和创新者造成不必要的障碍。让行业专家参与进来并反复制定政策可能会有所帮助,这似乎目前正在发生。
俘虏:我不是 LLM 开发和训练方面的专家,但我怀疑我们可能会看到那里的进步停滞不前,因为更大的模型的计算成本呈指数级增长,而获取用于训练的新数据的成本也越来越高。例如,考虑到这些挑战,OpenAI 的单位经济效益目前看起来并不可持续。
也就是说,现有和即将推出的模型已经非常强大,这就是我们看到广泛集成的原因。随着技术的成熟和理解的加深,我预计在创新时期,新的方法和应用将蓬勃发展。特别是,我对更多系统迁移到区块链上感到兴奋。AI 代理利用区块链数据(可访问、可组合和无缝交互)的潜力是巨大的,从而推动了分析和决策方面更智能的自动化、优化和创新。
CrunchDAO 在这一领域具有得天独厚的优势,可以构建基础设施来支持和塑造这些新兴趋势,确保去中心化解决方案在 AI/ML 发展的下一阶段发挥关键作用。