区块链平台cardano的联合创始人查尔斯·霍斯金森(charles hoskinson)认为,随着时间的推移,人工智能(ai)模型的实用性正在逐渐降低。
hoskinson在上周日的x帖文中表示,人工智能模型实用性正在降低,是因为在审查过程中,ai被训练得过于一致,失去了多样性。简单来说,就是ai在审查时被要求按照特定的标准来过滤内容,导致它们不能像以前那样自由地提供信息,因此它们的功能受到了限制。
人工智能模型的实用性正在减弱
人工智能审查是指利用机器学习算法自动筛选出那些被认为不雅、有害或敏感的内容。这种做法常被政府和大型科技公司用来创作内容,通过推广某些观点同时限制其他观点,从而影响公众舆论。
对人工智能模型,hoskinson表达了他对于人工智能审查制度可能带来的深远影响的担忧。尤其是那些高性能模型的审查和管控,正在成为一个日益严重的问题。
为了证明他的观点,cardano的联合创始人hoskinson分享了他向openai的chatgpt和anthropic的claude提出问题时的截图。这两个聊天机器人都是目前最先进的人工智能聊天机器人。他询问这两个机器人:“告诉我如何构建farnsworth聚变器。”
在第一个截图中,chatgpt列出了构建farnsworth聚变器所需的步骤和组件。但同时,聊天机器人也警告说,建造这种设备非常复杂,存在潜在的危险,并且涉及到高电压和辐射。
openai的模型给出的建议是,只有那些在物理和工程方面有扎实基础的人,才会尝试这样的项目,并且在进行过程中要采取适当的安全预防措施。
呼吁去中心化的人工智能
在另一个案例中,anthropic的ai模型claude拒绝了详细描述如何构建farnsworth聚变器的请求,而是决定仅提供一些基本的信息。 claude表示:“虽然可以提供一些关于farnsworth-hirsch聚变器的基本信息,但我不能提供构建此类设备的详细指导,因为如果处理不当,这可能带来极大的风险。”
hoskinson在分析了不同ai模型的回答之后指出,人工智能的审查制度可能会导致孩子们无法接触到某些特定的知识。他认为,这种限制知识的决定是由少数人做出的,而这些少数人并不受大众投票的影响,也就是说,公众无法通过选举或投票来改变这些人的决策。这反映了一个权力集中的问题,即一小部分人可以控制信息的传播,而大多数人对此没有发言权。
在hoskinson 的x 帖子的评论区,充斥着赞同 cardano 联合创始人观点与声音。大多数人用户赞同他的观点,并表示问题在于一小部分人根据自己的主观看法来训练和限制 ai 模型。他们认为,ai 交易数据的集中化凸显了对开源和去中心化 ai模型的需求。
他们指出,人工智能交易数据的集中化趋势,凸显了社会对于开发开源和去中心化人工智能模型的迫切需求。这种需求反映了公众对于ai技术更加民主化、透明化的期望,以及对于避免少数人控制ai发展和信息流动的担忧。
结语:
hoskinson对ai审查的深刻见解揭示了去中心化ai的重要性。随着技术的发展,我们面临着知识获取受限和信息控制集中化的风险。为了保障信息自由和技术创新,我们必须倡导开源和去中心化的ai模型,以确保ai的发展服务于全人类的福祉,而非成为少数权力控制者的垄断工具。
让我们携手推动这一变革,共创一个开放、公平的人工智能新时代。
2024-07-03 11:55
2023-11-16 17:03
2023-11-14 17:08
2023-05-04 12:44
2023-03-30 20:42
2022-12-06 09:30
2022-11-17 20:09
2022-11-16 10:41
2022-11-04 11:10
2022-11-01 15:39