假期里整点啥实务不行,非得学人家研究学问,核酸检测不香么……

《汽车数据安全管理若干规定(试行)》第9条说“汽车数据处理者具有增强行车安全的目的和充分的必要性,方可收集指纹、声纹、人脸、心律等生物识别特征信息”。这个条款中出现的“充分的”必要性,是指“加强版”的必要性(条件),还是充分性加必要性,或是“充分必要条件”?

据说市面上有不同的解读,但其直接来源却是照搬《个人信息保护法》第28条:“只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,个人信息处理者方可处理敏感个人信息”,这种不假思索的复制将对算法的某些底层逻辑(非算法的逻辑结构)产生影响,最终可能放大成一种人工智能的安全问题。

就必要性和充分性看,极其有限的初高中和本本数学知识告诉我,“凡是根据条件推导结论就是证明充分性,根据结论推导条件就是证明必要性”,而如果要使用充分必要条件,其对应的却是“当且仅当”(if and only if)。

因此,如果机械的对应第9条条款的表述并将“充分的必要性”算法化,则不同理解下的算法设计和实现会出现:

(1)《星际迷航》中机器人常说的:“这不能计算”——条款抑制算法——《流浪地球》中的莫斯也一样,所以很奇怪这个阶段的机器人居然还是弱人工智能,也许木星才是弱人工智能的上限。

(2)《攻壳机动队》中朱丽叶·比诺什对寡姐“我并不同意”的回应:“我们从来都不需要你的同意”,算法忽视条款。

当然,还有其他种种可能,比如死机而崩溃,死机而疯狂。

即使我们将求救目光转向伯尔的因果关系,为第9条的论述寻求可能更为高级的必要性和充分性的因果分析与合理解释,依然只能发现PS和PN的清晰区分和以此为基础的计算机模拟。勉强及格的概率统计课程导致了本文此处讨论的直接终止,但不影响无法为“充分的必要性”提供逻辑支撑的结果。

由此会产生的严重后果,正如对人类活动和全球变暖的因果关系的讨论称之为就像一桩事先张扬的 “谋杀案”,人类眼睁睁看着这场灾难一步步临近眼前(诺贝尔奖这次是真急了),没有对算法的合理约束的强人工智能算得上另一桩悬案,而这一约束本应当由法律来完成。霍金、马斯克等巨佬为此大声疾呼,而无动于衷者众。或者两者会叠加成一桩超级要案——对这方面,《黑客帝国》中的人类先毁灭天气(孟菲斯认为这并不重要)成为了一个重要的反讽脚注。

回到条款的解决路径,和学科融合的计算法学恰恰相反(当然,量子与法学是另一个更高层级的融合,它会把你带入玄妙的无量境界……),法学与数学应当保持各自的克制,用法律中的因果关系独立评价条件而不是推动法律归责的算法表达。而所有的划来划去的阈值,则在设定之初就预示着赋值和突破,成为人为的人工智能演进的障碍和风险。

最后,让我们一起回看下《民法典》,其对充分的表述显得优雅而老道,且看其第1243条:“未经许可进入高度危险活动区域或者高度危险物存放区域受到损害,管理人能够证明已经采取足够安全措施并尽到充分警示义务的,可以减轻或者不承担责任”——这是法律逻辑的日常啊!(原浩

声明:本文来自苏州信息安全法学所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。