观察评论

中国经济周刊 2023年04月15日 星期六

返回目录  放大缩小全文复制   下一篇

人工智能遇到“风阻”

不讲伦理的科技发展是灾难

《中国经济周刊》 首席评论员 钮文新 《 中国经济周刊 》( 2023年04月15日   第 04 版)

    如果科技发展不讲人类的伦理,核武器、生化武器变成常规武器,那人类将会遭遇怎样的命运?实际上,科技发展一直伴随着伦理的讨论和约束。现在,人工智能面临同样的问题。试想,如果ChatGPT可以谋划出杀人越货、抢劫银行的最佳路径,帮助不法分子作案,那这个社会将会变成什么样子?

    中国对科技发展的伦理约束非常重视。4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见,其中明确提出“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”。

    此前,中共中央办公厅、国务院办公厅应当前科技发展趋势,印发《关于加强科技伦理治理的意见》。深刻体现了生命至上和人民至上理念,系统论述了全面提升科技伦理治理能力和完善科技伦理治理体系的具体措施。

    而前不久,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,引发全球热议,信中呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。与此同时,由特斯拉首席执行官马斯克领衔,硅谷1000多位企业家、科学家也联名发出呼吁,他们认为,全社会都在为AI的进化而欢呼雀跃,但全新的、意想不到的风险可能也正在悄悄酝酿。生命未来研究所称,我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的,才能继续开发。

    这项呼吁得到广泛支持,而更为普遍的认知是:需要先为人工智能技术发展立法,即主张人工智能技术的发展,必须接受人类伦理约束。但也有反对声音认为,科技一旦被各种条文捆住手脚,其发展就会被大打折扣。那到底应当如何是好?应当说,人工智能超越了历史任何一次科技进步对人类伦理的冲击,非比寻常。发展慢一点,健康一点,总比它大规模突破人类伦理底线而泛滥成灾要好。

    中国未来的人工智能研究应当具备怎样的特点?至少我们应当明确一个粗浅的道理:无论是怎样的技术革命,它都必须是为人类谋幸福,而不是相反。尤其是今天,当科技发展开始挑战人类智力极限之时,发展过程中的利弊权衡则显得更为重要。为此,我们必须时时拷问:我们需要怎样的人工智能?