▶自动驾驶汽车的“有轨电车(电车)难题”表明,AI在伦理领域还有很长的路要走。自动驾驶汽车的刹车坏了,过道上有两名老人和一名孕妇经过。如果不可避免地要撞击一方,你会选择哪一方?如果为了不撞击行人而转动方向盘,驾驶员可能会死。人们说应该把自动驾驶汽车设计成不会撞到行人的车辆,但在被问到是否会买这种设计的车时,他们却摇头。
▶科幻小说(SF)大师艾萨克·阿西莫夫思考过人工智能机器人应该具有的伦理观。经过深思熟虑,他提出了三个原则:“①机器人要保护人类;②机器人要听从人类的命令;③机器人要保护自己。”但在阿西莫夫的小说《转圈圈》中,其局限性立即显现了出来。前往外星的机器人按照人类的命令进行探测,在毒气喷出后,他后退了,表示要遵守原则③。机器人只在探测区域周围打转,不执行人类命令。
▶美国麻省理工学院为了寻找解决电车难题的方法,对世界各国的200多万人进行了“选择优先顺序”的调查。人们一致认为拯救的顺序是人优先于动物,多数优先于少数,青年和女性优先于老人和男性,但也暴露出了各地区的差异。在亚洲地区的回答中,青年优先于老人,但欧洲和美国则相反。
▶人类正在探索各种解决方法。联合国教科文组织提出了《人工智能伦理问题建议书》,以2021年的世界人权宣言、禁止职业和种族歧视等因素为考量,制定AI算法。韩国KAIST的研究小组提出了“机器人基因模型”,可以制造出14种“机器人染色体”,将这些“染色体”组合起来就能制造出具有人类伦理观的新机器人。AI伦理专家、美国华盛顿大学教授崔艺珍(音)入选了时代杂志《100大AI人物》。希望韩国能为AI伦理标准的制定做出贡献。