在人工智能AI发展如火如荼的当下, “AI是提升效率还是造成失业”引发激辩,更有网友提出终极拷问:它会取代人类吗?
不久前,以伊隆·马斯克为代表的1000余名业内精英在生命未来研究所一封公开信上联合签名,呼吁未来6个月内暂停训练比GPT-4更为强大的AI,并要求加速针对高级AI设计一套共享安全协议。
联名信发出提问:“我们是否该开发机器大脑,让它们比人脑还多,比人脑还聪明,最终淘汰我们取代我们?”
“审慎派”
特斯拉首席执行官伊隆·马斯克对于AI的看法一直是比较复杂和谨慎的。他曾经多次表达过对于AI可能对人类造成危险的担忧,并呼吁加强对AI技术的监管和研究,以确保AI技术符合人类的利益和价值观。他认为:
1.AI可能是人类的“最大威胁”
马斯克曾在多个场合表示,AI可能会对人类造成比核武器还要严重的危险,可能是人类的“最大威胁”。他认为,AI的发展速度超过人类的理解和控制能力,一旦AI变得超级智能,就有可能突破人类的控制和限制,并对人类造成威胁和危害。
2.需要将AI技术与人类大脑直接连接
尽管对于AI可能对人类造成的危险存在担忧,但马斯克也认为AI技术对于人类的智能和能力有着重要的增强作用。他提出了将AI技术与人类大脑直接连接的想法,以增强人类的智能和能力,可以使人类变得更加聪明、有创造力,甚至能够“下载”知识和技能。
3.需要加强对AI技术的监管和研究
为了确保AI技术符合人类的利益和价值观,马斯克呼吁全球政府和科学家们加强对AI技术的监管和研究。他认为,应该建立一种全球性的监管机制,以确保AI技术的安全和可控性,并避免其被用于危害人类的目的。
《人类简史》《未来简史》作者尤瓦尔·赫拉利是一位以历史学和社会学见长的作家,他对于AI技术的看法主要集中在其对人类社会和人类自身的影响。他认为:
1.AI技术可能导致人类失业
赫拉利认为,AI技术可能会对人类的工作和就业产生深远的影响。他认为,随着AI技术的发展和应用,越来越多的传统职业和工作岗位将会被机器人和自动化系统所取代。这可能会导致人类的失业和社会的不稳定。
2.AI技术或改变人类的认知和行为
赫拉利认为,随着AI技术的发展和应用,人类将会变得更加依赖技术和数字化工具,甚至可能会失去一些基本的认知和行为能力。这可能会改变人类的生活方式和社会组织方式。
3.AI技术需要注重道德和伦理规范
赫拉利认为,AI技术可能会对人类的生活和社会产生深刻的影响,因此需要建立一套符合人类价值观和道德规范的AI技术规范和标准。这些规范和标准应该能够保护人类的权益和尊严,同时也应该考虑到AI技术的应用效益和社会价值。
著名物理学家斯蒂芬·霍金:人工智能的真正风险不是恶意,而是能力。
约书亚·本吉奥(图灵奖得主):我们最好考虑如何制造更智能的机器,并确保AI用于尽可能多的人的福祉。
腾讯董事会主席兼首席执行官马化腾:人类对AI的未知,仍然大于已知。追求“科技向善”,就要推动“AI向善”,让AI技术实现“可知、可控、可用、可靠”。我们善用AI的智慧,必须胜过日益强大的AI技术。
“积极派”
微软创始人比尔·盖茨总体而言对于AI技术持有积极看法,他认为AI技术有着重要的应用前景和潜力,并有望在很多领域推动人类社会的进步和发展。他认为:
1.AI技术可以改变世界
盖茨认为,AI技术有着广泛的应用前景和潜力,可以帮助我们更好地理解和解决一些重要的问题和挑战,例如能源、医疗、环保等。他预测,未来的AI技术将会在很多领域推动人类社会的进步和发展。
2.AI技术需要注重人性化和社会效益
盖茨认为,AI技术不应该只追求技术上的突破和创新,还应该考虑其对人类社会的影响和效益。他认为,AI技术需要为人类服务,并促进人类社会的进步和发展。
3.需要加强对AI技术的研究和开发
盖茨认为,AI技术是一种复杂的技术,需要不断探索和发展,以实现其最大的潜力和价值。他认为,全球政府和科学家们应该加强合作,共同推动AI技术的发展和应用。
Facebook创始人马克·扎克伯格与比尔·盖茨有两方面意见相似,他预测,未来的AI技术将会在很多领域推动人类社会的进步和发展;他也认为,AI技术要为人类服务,需要注重人性化和社会效益。
除此以外,他指出,AI技术的应用需要遵循一些基本的原则和规范,例如可信、透明、安全等,需要建立一套符合人类价值观和道德规范的AI技术标准和规范,以确保其安全、可控和可持续。
吴恩达(计算机科学家):AI,就像100年前的电力一样,正在改变很多行业,是一种通用技术。
百度董事长兼首席执行官李彦宏:我没有那么悲观,我是乐观的。不管有多少工作被替代,这只是整个图景的一部分,另外一部分是,存在我们现在甚至无法想象的更多新(工作)机会。
360董事长兼CEO周鸿祎:人类的作决策、情感、想象力和创造力是人工智能短期无法取代的。人工智能大模型是人类发明的最伟大的工具,背后凝聚着全人类的知识成果,能够赋予普通人更强大的能力,未来有可能被淘汰的是不会问问题,不会使用人工智能大模型的人。
(此文部分素材由AI收集,并由编辑人工核验)