现在电脑连接了我们所有人 连接我的电脑( 七 )


一个受到科学家和伦理学家大量关注的话题是公平和偏见 。算法越来越多地为招聘、大学录取、贷款和假释等决策提供信息 , 甚至是发号施令 。即使他们对某些群体的歧视比普通人要少 , 但他们仍然可能不公平地对待某些群体 , 不是故意的 , 而是经常因为他们接受的是有偏见的数据训练 。例如 , 它们可以根据一个人之前的被捕情况来预测他未来的犯罪行为 , 即使不同群体因特定数量的犯罪而被捕的几率不同 。
另一个问题是隐私和监控 , 因为电脑现在可以以一种以前无法想象的方式收集和分类信息 。我们网络行为的数据可以帮助预测我们私人生活的各个方面 , 比如性行为 。面部识别还可以在现实世界中跟随我们 , 帮助警察或威权政府 。新兴的神经技术领域已经在测试将大脑直接连接到计算机的方法 。与隐私相关的是安全——黑客可以访问被锁起来的数据 , 或者干扰心脏起搏器和自动驾驶汽车 。
计算机也能使欺骗成为可能 。人工智能可以生成看起来真实的内容 。语言模型可能被用来为极端组织提供虚假新闻和招募材料 。生成式对抗网络是一种深度学习 , 可以生成逼真的内容 , 可以帮助艺术家或创建深度伪造、图像或视频 , 显示人们在做他们从未做过的事情
在社交媒体上 , 我们也需要担心人们的社会、政治等观点的两极分化 。一般来说 , 推荐算法优化用户参与度(平台通过广告盈利) , 而不是民间话语 。算法还可以以其他方式操纵我们 。机器人顾问——提供金融建议或客户支持的聊天机器人——可能会了解我们真正需要什么 , 或者按下我们的按钮 , 向我们推销无关的产品 。
多个国家正在开发自主武器 , 机器人手中的枪支或导弹引发了科幻小说中终结者试图消灭人类的幽灵 。他们甚至可能没有恶意 , 错误地认为他们正在通过消灭人类癌症来帮助人类 。在更短的时间内 , 现实世界中的自动化系统已经造成了股市的闪电崩盘 , 例如量化交易 。如果AI被要求做出生死攸关的决定 , 他们就会面临著名的电车问题 , 即在不是每个人都能获胜的情况下 , 决定牺牲谁或什么 。
由于致命自主武器的存在 , 比如土耳其制造的STM无人机 , 专家们呼吁禁止那些可以在无需人工干预的情况下发动袭击的设备
还有关于如何在社会中管理技术的社会、政治和法律问题 。当人工智能系统造成伤害时 , 谁应该承担责任?(例如 , 自动驾驶汽车已经导致了人员死亡 。)我们如何才能确保更平等地获得人工智能工具及其好处 , 并确保它们不会歧视群体或个人?持续的工作自动化将如何影响就业?我们能管理数据中心对环境的影响吗?这些数据中心使用大量的电力 。我们是否应该优先使用可解释的算法 , 而不是许多神经网络的黑盒以获得更大的信任和可调试性 , 即使这会使算法在预测方面更差?


我们能做些什么
宾夕法尼亚大学计算机科学家、2019年《道德算法》(the Ethical Algorithm)一书的合著者迈克尔·卡恩斯将这些问题置于可管理性的范围内 。一方面是所谓的差异隐私 , 即向医疗记录数据集添加噪音的能力 , 这样它就可以与研究人员有效地共享 , 而无需透露太多的个人记录 。我们现在可以用数学来保证个人数据应该如何保存 。


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: