编者按:

“中国正处于一个十字路口。” 5 月 8 日,中国学者雷瑞鹏、邱仁宗等人在 Nature 上发表评论文章,做出预警称政府必须做出重大改变,以保护他人免受鲁莽的人类实验的潜在影响。

自去年 11 月,南方科技大学副教授贺建奎宣布其创造了经基因组编辑的一对双胞胎后,中国的科学家和监管者在不断进行反省。前述文章即是最新一例。

事实上,随着新兴技术的快速发展,确实带来一些不道德或非法使用的可能性。例如人工智能领域出现的算法歧视,合成生物学可能被滥用于制造武器等。

新兴技术的这些特点,决定了“技术先行”或“干了再说”的办法,可能不再适用。而且,在市场压力下潜在的利益冲突,科学家的自我约束也容易失灵。为此,DeepTech 邀请雷瑞鹏、邱仁宗撰文,探讨如何解决中国在新兴技术领域的道德治理难题。

自从贺建奎在去年 11 月 26 日宣布,被他做了胚胎基因组编辑的双胞胎女孩已经出生,震惊令人震惊全世界之后,中国的科学界、生命伦理学和科学技术伦理学界和,以及监管机构一直处于反思之中。

现在大家正在“痛定思痛”,思考这个“痛”怎么来的,怎么才可以避免再发生这种令人“痛”的事件。我们认为,从根本上说,我们还没有在国家层面建立保护人类受试者的伦理基础设施或伦理治理体系,这包括制订有法律效力的有关保护人类受试者的法规或条例系统,建立有效优质的机构伦理审查制度,建立有效优质的能力建设制度,以及有效的质量控制制度,包括对机构伦理审查委员会和省市伦理委员会的检查、考查和评估制度。

我们的国的家卫生健康委员会和食品药品监督管理总局已经制订了我们认为比较好的规范和管理办法,但对它们实施的监督较差;机构伦理审查委员会质量参差不齐;能力建设薄弱;以及缺乏检查、考查和评估。即使有了改善,它们实际上仅在这两个政府部门管辖范围之内,在这两个管辖部门此之外的研究机构以及和越来越多的私立研究机构也许对这些部门规章,就置若罔闻了。将这些部门的规章成为国务院(中央政府)的条例,在国务院下建立保护人类受试者的权威机构也许是我们应该做的事情之一。

从贺建奎事件我们考虑到的一个问题是,对于像基因编辑这那样的新兴技术,没有注意其伦理问题的特殊性,因而也没有建立专门针对它们的监管机制。新兴技术(emerging technologies)是指基因技术(如基因编辑)、人工智能技术、机器人技术、大数据技术、干细胞和再生医学、合成生物学、神经科技、微电机系统、异种移植技术、纳米技术、增强现实技术、3D 打印刷等。

这些新兴技术的主要特点之一是它们有可能对人和社会带来巨大受益,同时又有可能带来巨大风险,威胁到人类未来世代的健康以及人类的生存。例如人工智能可使人类从一般的智能活动摆脱出来,集中精力于创新发现发明,然而同人类一样聪明甚至超越人类的人工智能系统,一旦失去控制,可能对人类在地球的存在带来威胁。合成生物学的研究和广泛应用可帮助人类用多快好省的方法解决困扰人们已久的粮食、营养、燃料、药物和疫苗的生产问题,然而如果合成出传染力强、引起的疾病严重、传播迅速,且对疫苗有免疫力的病毒,则可能使数千万人丧失生命。

这些新兴技术特点之二是它们的不确定性。不确定性使是我们对所采取的干预措施可能引起的后果难以预测,影响后果的因素可能太多,太复杂,相互依赖性太强而不能把握。例如用于管理电网、核电站等重要设施的人工智能软件可能发生难以预测的差错。贺建奎所做的生殖系基因组编辑是典型的不确定性例子。我们将卵、精子、受精卵或胚胎中的基因组进行编辑后,,我们难以精确发现基因组编辑是否损害了正常基因,更不能把握基因组经过修饰的胚胎发育成人后是否能预防艾滋病病毒感染。即使她们终身没有感染艾滋病病毒,那么是能否是确认是基因组编辑的后果,她们对其他疾病尤其是传染病是否有易感性,她们整体的身体状况是比没有经过编辑的孩子是好还是糟遭,她们未来的后代孩子的身体状况以及未来的孩子的后代的身体状况怎样?对这些问题我们都无法回答,因为缺乏必要的信息。在这种情况下我们无法对生殖系基因组编辑进行必要的风险-受益比评估,也不能对提供胚胎的遗传病患者(即未来孩子的父母)提供必要和充分的信息,使他们能够做出有效的知情同意。新兴技术往往具有双重用途的特性,即一方面可被善意使用,为人类造福;另一方面也可被恶意使用,给人类带来祸害。例如合成流感病毒可用来研制疫苗,也可用来制造武器。

新兴技术主要特点之三是,会提出一些我们从来没有遇见过的新的伦理问题。例如人工智能软件对于我们人类做出涉及未来的决策能够起很大的积极作用,可是人工智能的决策是根据大数据利用算法做出的,算法能在大数据中找出人们行为的模式,然后根据这种模式预测某一群人未来会采取何种行动,包括消费者会购买何种商品,搜索何种人可担任企业的高级执行官,某种疾病在某一地区或全国发生的概率,或在某一地区犯过罪的人有没有可能再犯等等,然后根据这种预测制订相应的干预策略。然而,模式是根据数据识别出来的,而数据是人们过去的行为留下的信息,根据从过去行为的数据识别出的行为模式来预测人们未来的行为,就有可能发生偏差或偏见。例如在美国多次发现算法中的偏差,结果显示种族主义和性别歧视偏见。安保机构往往根据算法来确定黑人容易重新犯罪,尽管实际上白人罪犯更容易重新犯罪。由于在大数据中往往将“编程”、“技术”等词与男性联在一起,“管家”等词则与女性联在一起,因此人工智能的搜索软件往往推荐男性做企业高级执行官等等。再则,人有自由意志,一个人过去犯过罪,他可以选择今后不再犯罪。

新兴技术的这些特点,决定了我们发展它们的政策和战略不能采取“技术先行”或“干了再说”的办法。反之,我们应该“伦理先行”。这要求我们在启动研发之前先要在对其伦理问题探讨的基础上,制订一套初步的、暂行的伦理规范和管理办法。

最近国家卫生健康委员会发布的《生物医学新技术临床应用管理条例(征求意见稿)》是很好的,但对每一项新兴技术都制订一个伦理指南或伦理准则可能更好。这种规范是暂时性的,因为制订这些规范时我们缺乏充分的信息,而且新兴技术具有不确定性,我们可以随着科研的发展,及时进行评估,修订我们的规范。因此,在这个阶段规范不宜采取立法的形式,而以部门规章为宜,因为需要与时俱进,及时修改,以便不脱离科技发展的实际。随着我们积累的知识和数据增多而随时加以修改、完善(类似摸石头过河)。

不少科学家和科学共同体愿意进行自我监管,这是非常积极的现象。但科学家和科学共同体必须理解,自我监管是不够的。因为:其一,科学家往往需要集中精力和时间解决创新、研发和应用中的科学技术问题,这是很自然的和可以理解的,可是这样他们就没有充分的精力和时间来关注伦理、法律和社会问题;其二,现今科学技术的伦理问题要比例如哥白尼、伽利略甚至牛顿时十分复杂得更多,而伦理学,尤其是科学技术伦理学或生命伦理学也已经发展为一门理性学科,它们有专门的概念、理论、原则和方法,不经过系统的训练是难以把握的;其三,现今的科技创新、研发和应用都是在市场情境下进行,这样科学家就会产生利益冲突,没有外部监管,只有自我监管,就会出现“既当运动员,又当裁判员”的情况。外部监督有两类:政府对新兴科技自上而下的监管,这是最为重要的,这就要建立一套监管的制度,自上而下的监督也包括人民代表机构和政治协商机构的监督,这是我们缺少的;自上而下的监督就要对违规者问责、追责、惩罚,再也不能让违规者不必付出违规成本。另一类监督是利益攸关方的自下而上的监管,利益攸关方包括人文社科诸学科相关研究人员、有关的民间组织和公众代表。

坚持透明性原则,建议建立开放的公众可及的中央信息平台,凡从事基因编辑研究和应用的任何单位,都必须将下列情况向中央信息平台提供:从事基因编辑研究和应用的机构情况(人员、设备);基础研究使用人胚胎的情况(胚胎情况、数量、结局);动物研究情况(什么动物、多少、所获数据);临床试验情况;临床应用情况(包括创新疗法);与基因编辑研究和应用合作的 IVF 机构情况;对非人动植物基因编辑情况。贺建奎曾声称做过无数次的动物实验,但一次实验也没有公开报告过国。对违规者的调查处理结果也应在发表在这中央信息平台上,仅仅通过新华社报告一下初步调查结果,既无细节,又无相关单位和人员的姓名,初步调查结果之后再也没有听说进一步的结果,这种做法不符合透明性原则,必须加以改正。

作者:

雷瑞鹏,华中科技大学文学院、生命伦理学研究中心教授

邱仁宗,中国社会科学院哲学研究所研究员

声明:本文来自DeepTech深科技,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。