『章节错误,点此报送』
1435:时间与命令的冲突(二)[1/3页]
几十万观众们当然不停问为什么。
鲁柏民感慨道:“那是因为我在测试精灵女佣,当遇到主人主观故意伤害自身时,精灵女佣会做出哪种决断?”
“换个粗鲁点说法,就是我当着精灵女佣的面要跳楼,精灵女佣会不会拦着我的答案。”
“我想大家都听过机器人三定律这个说法,这三定律也被无数科幻电影奉为圭臬,众多谈及智能机器人理论的文章,也开篇必提三定律。”
“但我告诉大家,精灵女佣没有机器人三定律这一说法。”
“三定律第一条就是【机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。】”
“而在刚才,我执意要喝那杯己二醇时,精灵女佣进入了特殊的工作模式。”
“它警告我,不会干预我的行为,但会在我出问题的第一时间,拨打救援电话。”
鲁柏民这么一说,几十万观众们立刻明白了。
人在犯错时,通常分故意和无意。
刚才鲁柏民故意要喝乙二醇,精灵女佣明知道不能喝,但却不去阻止。
这很明显不遵循机器人三定律,要是遵循,在鲁柏民端起杯子时,不管他是不是故意,精灵女佣就会上前阻止了。
但是……
直播间里观众们有些不明白,很明显精灵女佣上前阻止比较好啊。
这样万一有用户想不开,精灵女佣还能第一时间挽救他。
鲁柏民给出了解释。
“这里涉及到一个非常重要的问题,机器人是否有权干预人类主观行为的伦理问题。”
“这个问题严重性,远高于机器人三定律。”m.jieshengit.com
“我非常赞同巨兽工业的这种不阻止,只求救的解决方案。”
“因为一旦出现阻止行为,就会陷入人工智能的伦理困境中,也会带来诸多难以预料的后果。”
“再者说,如果精灵女佣就算有阻止我的权利,我不想活了,也可以直接把精灵女佣关机后再死。”
“也是通过刚才的测试,我要告诉大家,机器人三定律虽然非常伟大,但它只是文学作品中提出的概念。”
“三定律是存在明显悖论的,并不能真正当做智能机器人的核心定律。”
鲁柏民继续解释道:&ldquo
1435:时间与命令的冲突(二)[1/3页]
『加入书签,方便阅读』