第344集:《智能驾驶的伦理决策优先级》(2/2)

天才一秒记住本站地址:[笔趣阁]
https://www.ibqg.vip 最快更新!无广告!

“区别在于,人类的犹豫可能致命,而机器必须在0.3秒内做出反应。”陈默转动座钟,钟摆的阴影在投影幕布上投下诡异的弧度,“上周我在慕尼黑见了那位失去双腿的工程师,他的自动驾驶汽车为了避开突然变道的自行车,把自己撞向了桥墩。”

投影幕布上切换出事故现场的照片:变形的车架、散落的零件、染血的安全气囊。林夏突然想起儿子生日那天,她开车送蛋糕时差点撞上横穿马路的孩子,是本能让她打了方向盘,而不是理性计算。

“我们做过五万次模拟测试。”数据分析师调出柱状图,“当选项是‘牺牲驾驶员保护五名行人’时,73%的受访者表示‘应该如此’,但同样比例的人不愿意购买这样的车。”

张弛冷笑一声:“这就是典型的道德伪善。就像所有人都支持器官捐献,却很少有人愿意成为捐献者。”

窗外的雨不知何时停了,月光透过玻璃幕墙,在地板上投下联合国徽章的影子。林夏突然想起在斯坦福哲学系旁听的那堂课,教授说最艰难的道德抉择,往往不是善恶之间的选择,而是善与善的冲突。

“我父亲是神经外科医生。”陈默的声音低沉下来,座钟的滴答声突然变得清晰,“他总说,手术台上没有绝对正确的方案,只有 least bad(最不坏)的选择。”

他按下遥控器,幕布上出现了新的模拟场景:十字路口,红灯。自动驾驶汽车正在等待,突然左侧货车失控冲来。前方是闯红灯的孕妇,右侧是遵守交规的骑行者,后方是满载学生的校车。

“系统该怎么选?”陈默的目光扫过每个人的脸,“根据德国的伦理准则,应该优先保护遵守规则的人;按日本的规定,要优先保护弱势群体;美国则要求不能预设牺牲程序,交给随机概率。”

座钟突然敲响了十下,黄铜钟摆的影子在孕妇和骑行者的影像上交替晃动,像一架不知疲倦的天平。

二、代码里的偏见

林夏在纽约公共图书馆的档案室里找到了那份泛黄的报告。1940年,美国铁路公司的安全手册里明确规定:当列车必须脱轨时,应优先选择驶向黑人社区而非白人社区。

“技术从诞生起就带着偏见。”陈默不知何时站在她身后,手里拿着一本《自动化的傲慢》,“1987年,波音737的自动驾驶系统总在特定风速下失控,后来发现是因为工程师用的测试数据全来自北半球航线。”

𝐈  b  𝚀  g. v  𝐈  𝒫