Mira网络多模型共识去中心化验证构建AI信任层对抗幻觉偏见

Mira网络致力于构建AI的信任层,那么为何AI需要被信任?Mira又是如何解决这一问题的?随着Mira网络的公共测试网正式上线,这一话题引发了广泛关注。AI的强大能力固然令人瞩目,但其潜在的”幻觉”与偏见却往往被忽视。AI的”幻觉”简单来说,就是其有时会编造看似合理的虚假信息。例如,当你询问AI月亮为何是粉色的,它可能会给出一系列看似有理的解释,却毫无事实依据。AI产生”幻觉”或偏见的原因,与其当前的技术路径密切相关。生成式AI通过预测”最可能”的内容进行输出,追求连贯性和合理性,但有时却无法验证真伪;此外,训练数据中存在的错误、偏见甚至虚构内容,也会直接影响AI的输出。换言之,AI是在学习人类语言模式而非事实本身。因此,在概率生成机制与数据驱动模式下,AI产生幻觉几乎不可避免。这种带有偏见或幻觉的输出,若发生在普通知识或娱乐领域尚无大碍,但在医疗、法律、航空、金融等高度严谨的领域,则可能造成严重后果。如何解决AI的幻觉与偏见,已成为AI发展过程中的核心挑战之一。一些解决方案包括采用检索增强生成技术,结合实时数据库验证事实;或引入人类反馈,通过人工标注和监督纠正模型错误。Mira项目也正致力于解决AI偏见和幻觉问题,旨在构建AI的信任层,减少偏见与幻觉,提升AI的可靠性。那么,Mira的整体框架是如何运作的?其核心是通过多个AI模型的共识来验证AI输出。Mira本身是一个验证网络,它借助多个AI模型的共识来确保输出的可靠性。此外,去中心化共识验证也是其关键所在。去中心化共识验证是加密领域的强项,同时结合多模型协同,通过集体验证模式有效减少偏见和幻觉。在验证架构方面,Mira协议支持将复杂内容转换为独立验证声明。这些声明需要节点运营商参与验证,为确保节点运营商的诚实,将采用加密经济激励/惩罚机制。不同AI模型与分散的节点运营商共同参与,以保证验证结果的可靠性。Mira的网络架构包括内容转换、分布式验证以及共识机制,以此实现验证的可靠性。其中,内容转换是重要环节。Mira网络首先将候选内容分解为可验证声明,确保模型在相同背景下理解内容,然后将这些声明分发给节点进行验证,以确定其有效性,并汇总结果达成共识。这些结果和共识将返回给客户。为保护客户隐私,候选内容分解为声明对,并以随机分片方式分发给不同节点,防止验证过程中信息泄漏。节点运营商负责运行验证器模型,处理声明并提交验证结果。为何节点运营商愿意参与验证?因为可以获得收益。这些收益来源于为客户创造的价值。Mira网络的目的是降低AI的错误率(幻觉和偏见),一旦达成目标,就能产生巨大价值,例如在医疗、法律、航空、金融等领域降低错误率。因此,客户有意愿付费。当然,付费的可持续性和规模取决于Mira网络能否持续为客户带来价值。此外,为防止节点随机响应的投机行为,持续偏离共识的节点将被消减质押代币。总之,通过经济机制的博弈确保节点运营商诚实地参与验证。总体而言,Mira为实现AI的可靠性提供了一种创新思路:在多AI模型基础上构建去中心化共识验证网络,为客户的AI服务带来更高的可靠性,降低偏见和幻觉,满足客户对更高准确度和精确率的需求。同时,在为客户创造价值的基础上,为网络参与者带来收益。简而言之,Mira致力于构建AI的信任层,这对推动AI应用的深入发展具有重要意义。目前,Mira已与ai16z、ARC等AI agent框架合作。Mira网络的公共测试网于昨日上线,用户可通过使用基于Mira的LLM聊天应用Klok参与测试。使用Klok应用可以体验经过验证的AI输出,并比较其与未经验证的AI输出的差异,同时还能赚取Mira积分。至于积分的未来用途,目前尚未透露。

本文网址:http://www.idea2003.cn/news/2095.html

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注