Web3 的阴暗面:去中心化如何助长 AI 偏见
人工智能 (AI) 迅速改变了我们的生活和工作方式。与此同时,AI 数据偏见带来的挑战已经走到了最前面。当我们走向 Web3 的未来时,我们自然会看到同时使用 Web3 和 AI 的创新产品、解决方案和服务。而且,虽然一些评论员认为去中心化技术可以解决数据偏见问题,但事实并非完成如此。
图片来源:由 Maze AI 生成
Web3 市场规模仍然相对较小且难以量化,因为 Web3 生态系统仍处于发展的早期阶段,Web3 的确切定义仍在不断发展。虽然 2021 年的 Web3 市场规模估计接近 20 亿美元,但各种分析师和研究公司报告称,预计复合年增长率 (CAGR) 约为 45%,再加上 Web3 解决方案和消费者采用率的快速增长,到 2030 年,Web3 市场的价值将达到 800 亿美元左右。
虽然 Web3 正在快速增长,但该行业的现状与其他科技行业因素相结合是 AI 数据偏见走上错误道路的原因。
数据偏见、质量和数量之间的联系AI 系统依靠大量高质量数据来训练它们的算法。OpenAI 的 GPT-3(包括 ChatGPT 模型)在大量高质量数据上进行了训练。OpenAI并未透露用于训练的确切数据量,但估计在千亿字量级或更多。
数据经过过滤和预处理,以确保其质量高且与语言生成任务相关。OpenAI 使用先进的机器学习 (ML) 技术(例如 Transformer)在这个大型数据集上训练模型,使其能够学习单词和短语之间的模式和关系,并生成高质量的文本。
AI 训练数据的质量对 ML 模型的性能有重大影响,数据集的大小也是决定模型泛化到新数据和任务能力的关键因素。但是,质量和数量都会对数据偏见产生重大影响,这也是事实。
数据偏见的独特风险AI 中的数据偏见是一个重要问题,因为它可能在就业、信贷、住房和刑事司法等领域导致不公平、歧视和有害的结果。
2018 年,亚马逊被迫废弃了一款显示出对女性有偏见的 AI 招聘工具。该工具接受了对过去 10 年期间提交给亚马逊的简历的培训,其中主要包括男性候选人,导致 AI 减少了包含“女性”和“女人”等词的简历。
2019 年,研究人员发现,一种用于预测患者预后的商用 AI 算法对黑人患者存在偏见。该算法主要针对白人患者数据进行训练,导致其对黑人患者的假阳性率更高。
Web3 解决方案的去中心化性质与 AI 相结合,带来独特的偏见风险。这种环境中数据的质量和可用性可能是一个挑战,这使得准确训练 AI 算法变得困难,这不仅是因为缺乏使用中的 Web3 解决方案,还因为缺乏有能力使用它们的人群。
我们可以从 23andMe 等公司收集的基因组数据中得出相似之处,这些数据对贫困和边缘化社区存在偏见。23andMe 等 DNA 检测服务的成本、可用性和目标营销限制了来自低收入社区或生活在该服务未运营地区的个人获得这些服务的机会,这些地区往往是较贫穷、欠发达国家。
- 星际资讯
免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。