随着香港首辆获批自动驾驶牌照的车辆开进机场,科技进步仿如按下油门,但法律与伦理的「导航系统」是否已准备好?这些问题不只关乎技术安全,更关乎社会共识与价值选择。
早前由政府资助、香港科技大学牵头的生成式人工智能研发中心(HKGAI)发布本地首个大语言模型「HKGAI V1」,同时草拟了《生成式人工智能指引(草拟稿)》。这份指引清楚指出,AI技术在应用过程中必须遵守五大治理原则:数据私隐、知识产权、防罪能力、系统可靠性及安全性,而「人本监察」(Human-in-the-loop)则是确保AI可信与可问责的核心机制。
这些原则正好适用于无人驾驶技术。当AI车辆需要在保护乘客与避免撞向途人之间作出选择,那是一个纯粹的技术问题,还是一道道德选择题?我们是否应该事前由人类介入模型设计,决定价值排序?还是交由AI自己「学会」社会伦理?
根据指引建议,AI开发者与服务提供商应设立风险评估、合规审核及内容标注机制,并确保生成内容具可追溯性。这对于自动驾驶车辆在极端情境下的决策尤为重要,否则一旦发生事故,无论是技术偏差还是「模型幻觉」,都可能导致法律责任难以厘清。
值得留意的是,指引亦强调「行业导向」的AI治理原则。例如自动驾驶属于高风险应用场景,应优先引入模型审计、数据验证、事故仿真测试等措施。这些制度不单保障乘客与途人,亦有助企业稳定发展、赢得公众信任。
科技可以驶得更快,但社会的信任是「最后一公里」。AI开发者、政策制定者与市民必须共同参与这场讨论:当方向盘交给AI,我们是否已设好正确的航线?
