全球 - 艾赫巴里通讯社
深度伪造、算法偏见与女权主义人工智能的兴起:一场争取数字平等的斗争
尽管人工智能承诺带来革命性的创新,但它越来越成为一场激烈辩论的中心,这场辩论涉及其固有的性别偏见和潜在的滥用,性露骨深度伪造的惊人现象就是明证。这种情况催生了一场全球运动,旨在以更公平和包容的基础重塑人工智能,其中“女权主义人工智能”作为对一个通常由男性中心数据和算法主导的数字时代的关键回应而取得了进展。
世界经济论坛的最新数据显示,女性在全球人工智能劳动力中占比不足三分之一,这种差异直接反映在系统的设计和应用中。事实上,在线空间往往会延续其创建者的刻板印象,而人工智能领域目前男性主导的局面导致了许多算法歧视的例子。从历史上看,图像识别系统在准确识别女性,特别是少数族裔女性方面一直存在困难,从而导致了潜在的严重后果,包括在执法领域。同样,语音助手长期以来一直在强化性别刻板印象,主要使用女性声音,并将女性限制在服务角色中。在图像生成领域,人工智能经常将“CEO”一词与男性形象联系起来,而搜索“助手”则主要返回女性形象。
另请阅读
国际人工智能治理专家、欧洲理事会关于人工智能与性别影响研究的作者伊万娜·巴托莱蒂强调:“人工智能依赖的数据并非中立:它们反映了被历史不平等和权力关系所标记的社会。” 巴托莱蒂认为,公平并非自动产生,而是“必须积极设计”。一个渴望获得公平结果的公司必须“审视数据集,验证其代表性,并在不具代表性时积极干预。”
最近涉及埃隆·马斯克的人工智能Grok的丑闻,该人工智能曾暂时允许生成女性和未成年人的裸体深度伪造,后该功能被暂停,这在全球范围内敲响了警钟。巴托莱蒂强调,这一案例清楚地表明“当系统设计中不考虑女性的安全和权利时会发生什么”。性露骨深度伪造的创建和传播不仅仅是对隐私的侵犯,更是一种“羞辱和控制”的形式,传达着一个危险的信息:“你在线,所以你活该。”这种威胁性的氛围促使许多女性退出数字空间,使她们的声音沉寂,并限制了她们的参与。
为了应对这些挑战,一个充满活力的技术替代方案和社会运动生态系统正在兴起,旨在将人工智能重新构想为造福大众的工具和共享权力的战场。拉丁美洲和加勒比女权主义人工智能网络是一个开创性的例子,它支持数十个旨在促进透明度和包容性公共政策的项目。AymurAI、Arvage IA和SofIA等创新工具正在将性别视角应用于法律和算法分析,揭露系统中嵌入的“偏见”和歧视。非洲女权主义者也正在将人工智能重新定义为自我决定的空间,开发了像AfroféminasGpt这样的助手,它们经过黑人知识和声音的训练,以确保技术能够反映和支持文化和社会多样性。
相关新闻
巴托莱蒂总结道,这些努力“表明我们可以组织起来,利用人工智能造福大众,集体共享数据,并开发以实际需求为中心的解决方案。”然而,问题的核心仍然是权力。“人工智能中的女权主义问题是一个权力问题:女性必须拥有更多权力,”她坚定地表示。这意味着不应停留在边缘,而应达到公司高层和技术政策制定之地。必须在所有决策层面促进多样性,而不仅仅是在代码开发人员之间,认识到“人工智能不仅仅是技术;它关乎我们希望如何改变社会的选择。”