现在电脑连接了我们所有人 连接我的电脑( 六 )


通用型人工智能可能还需要我们动物天性的其他方面 , 比如情感 , 尤其是当人类希望以自然的方式与机器互动时 。情绪不仅仅是非理性的反应 。我们已经进化了它们来指导我们的驱动力和行为 。OpenAI的联合创始人兼首席科学家伊利亚·苏茨克弗表示 , 它们“给了我们这种额外的智慧活力” 。即使AI没有和我们一样的意识感受 , 它也可能有近似于恐惧或愤怒的代码 , 事实上强化学习已经包含了类似于好奇心的探索元素 。
仿人机器人iCub已经成为世界各国实验室研究人类认知和人工智能的研究工具
人类不是空白的石板 。我们生来就具有识别人脸、学习语言和探索其它物体的特定倾向 。机器学习系统也需要正确的固有结构来快速学习某些东西 。采用什么样的结构是一个激烈争论的问题 。苏茨克弗说 , “我们想要最好的白板 。”
人工智能的自我思考
人工智能本身可能会帮助我们发现新的人工智能形式 。有一套称为AutoML的技术 , 其中的算法有助于优化神经网络架构或人工智能模型的其他方面 。人工智能还帮助芯片架构师设计出更好的集成电路 。去年 , 谷歌的研究人员在《自然》杂志上报道说 , 在他们设计的加速器芯片的某些方面 , 强化学习比他们的内部团队表现得更好 。
通用型人工智能的到来可能还要几十年 。“我们不了解我们自己的智力 , ”米切尔说 , 因为它的大部分是无意识的 。“因此 , 我们不知道对人工智能来说什么是容易的 , 什么是困难的 。”看似困难的事情往往容易 , 反之亦然——这一现象被称为“莫拉维克悖论”(Moravec's paradox) , 由机器人专家汉斯·莫拉维克提出 。1988年 , 莫拉维克写道:“让计算机在解决智力测试问题或下棋方面表现出成人水平的表现相对容易 , 而让它们在感知和移动方面达到1岁儿童的水平则很难或不可能 。”婴儿其实很聪明 。普莱科普说 , 为了实现通用型人工智能的目标 , “我们也对人类智力和一般智力有了更多的了解 。”
图灵区分了一般智力和类人智力 。在他1950年关于模仿游戏的论文中 , 他写道:“难道机器不会执行一些应该被描述为思考但与人类截然不同的事情吗?”他的观点是:你不需要像一个人一样思考就能拥有真正的智慧 。
道德困境
在1942年的短篇小说《逃避》(Runaround)中 , 艾萨克·阿西莫夫(Isaac Asimov)笔下的一个角色列举了著名的“机器人三原则”:第一条:机器人不得伤害人类 , 或看到人类受到伤害而袖手旁观;第二条:机器人必须服从人类的命令 , 除非这条命令与第一条相矛盾;第三条: 机器人必须保护自己 , 除非这种保护与以上两条相矛盾 。
我们可能会想象阿西莫夫的“正电子大脑”在对人类的伤害方面做出自主的决定 , 例如不再是类人机器人杀人 。但这实际上不是电脑每天如何影响我们的表现 , 事实上人工智能是指“我们有了管理新闻推送的算法”类似的影响 。随着计算机进一步渗透到我们的生活中 , 我们需要更加努力地思考要构建什么样的系统 , 以及如何部署它们这样的问题 。
这是伦理学的领域 , 它似乎与数学、科学和工程的所谓客观性相距甚远 。但是 , 决定对这个世界提出什么样的问题 , 建造什么样的工具 , 始终取决于我们的理想和顾虑 。例如 , 研究像原子内部这样深奥的课题 , 对能源和武器都有明显的影响 。哈佛大学的计算机科学家芭芭拉说:“有一个基本的事实 , 计算机系统不是价值中性的 , 当你设计它们的时候 , 你会把一些价值带入设计中 。”


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: