機器人智能裝備青青草青青草青青草品牌服務平台

关注 | 智能时代的技术伦理观——重塑数字社会的信任

時間:2019-07-12 來源:騰訊研究院 關鍵詞:#人工智能

导语:人工智能伦理是国际社会近几年关注的焦点话题。最近,国内外都有重大进展,OECD成员国采纳了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则(Principles for responsible stewardship of trustworthy AI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。无独有偶,我国新一代人工智能治理原则也于近日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。
 

        在此背景下,在腾讯研究院过去几年对人工智能伦理进行的持续研究的基础上,腾讯研究院和腾讯AI Lab联合研究形成了这份人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。
 

        以下爲報告主要內容:
 

        互聯網的前三十年,是一個連接一切的故事,這個故事以前所未有的速度和規模改變著人類和人類社會。如今,以人工智能、大數據爲代表的新技術集群加速發展,有望引領第四次工業革命,智能時代的大幕正在拉開,無處不在的數據和算法正在催生一種新型的人工智能驅動的經濟和社會形式,生物層、物理層、技術層可能融合爲三位一體。簡言之,人工智能正在改變這個世界。
 

        因此在當前,以人工智能爲代表的這一輪新技術具有巨大的潛力和價值,無疑能夠成爲一股“向善”的力量,繼續造福于人類和人類社會。但任何具有變革性的新技術都必然帶來法律的、倫理的以及社會的影響。例如,互聯網、大數據、人工智能等數字技術及其應用帶來的隱私保護、虛假信息、算法歧視、網絡安全、網絡犯罪、網絡過度使用等問題已經成爲全球關注焦點,引發全球範圍內對數字技術及其應用的影響的反思和討論,探索如何讓新技術帶來個人和社會福祉的最大化。
 

        因此,人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技青青草青青草青青草的狭隘的技术向度和利益局限的重要保障。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究與发展的根本组成部分。在此背景下,从政府到青青草青青草青青草再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮,欧盟、德國、英国、OECD、G20、IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。要言之,各界已经基本达成共识,人工智能的发展离不开对伦理的思考和伦理保障。
 

        从最早的计算机到后来的信息再到如今的数据和算法,伴随着技术伦理的关注焦点的转变,技术伦理正在迈向一个新的阶段。在新的发展阶段,我们提出新的技术伦理(technology ethics),探索AI、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(“四可”),从而让人们可以信任AI,让AI可以给个人和社会创造价值;就AI與个人之关系而言,幸福是人生的终极目的,需要构建和谐共生的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展;就AI與社会之关系而言,AI所具有的巨大的“向善”潜力是历史上任何时候都无法比拟的,可以成为一股“向善”的力量,助力经济社会健康包容可持续发展。
 


 

        信任(trust):人工智能需要價值引導,做到可用、可靠、可知、可控(“四可”)
 

        就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多青青草青青草青青草的现在和未来的决定。更进一步,现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些與我们的生活和青青草青青草青青草息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。
 

        作为建立技术信任的起点,我们认为,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究與创新”(responsible research and innovation)、“科技向善”等理念,我们进一步阐述“四可”原则,用以引导负责任地发展和应用工智能技术,使其可以造福于人类和人类社会。并将“四可”翻译为“ARCC”(available,reliable,comprehensible,controllable,即ARCC,读作ark)。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。
 

        第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“经由设计的伦理”(ethics by design)理念,将伦理价值融入到AI青青草青青草青青草、服务的设计当中。
 

        第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定與可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。
 

        第三,可知(comprehensible)。人工智能应当是透明的、可解释的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。换句话说,技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。此外,在发展和应用人工智能的过程中,应为社会公众参與创造机会,并支持个人权利的行使。
 

        第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionary principle),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。
 


 

        當然,信任的建立,需要一套規則體系。在這些原則之下,人們可以探索制定標准、法律、國際公約等。對于人工智能需要采取包容審慎、敏捷靈活的治理方式,應避免嚴格、細致的法律要求,而是可以采取事後監管或者通過出台標准、青青草青青草青青草公約、倫理框架、最佳實踐、技術指南等調整人工智能等新技術的發展應用,支持青青草青青草青青草自律。
 

        幸福(happiness):在人機共生的智能社會,確保人人都有追求數字福祉、幸福工作的權利
 

        各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和青青草青青草青青草息息相关。这给人类與技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生(human-computer symbiosis)。
 

        第一,保障個人的數字福祉,人人都有追求數字福祉的權利。一方面需要消除技術鴻溝和數字鴻溝,全球還有接近一半人口沒有接入互聯網,老年人、殘疾人等弱勢群體未能充分享受到數字技術帶來的便利。另一方面減小、防止互聯網技術對個人的負面影響,網絡過度使用、信息繭房、算法偏見、假青青草青青草青青草等現象暴露出了數字青青草青青草青青草對個人健康、思維、認知、生活和工作等方面的負面影響,呼籲互聯網經濟從吸引乃至攫取用戶注意力向維護、促進用戶數字福祉轉變,要求科技公司將對用戶數字福祉的促進融入到互聯網服務的設計中,例如Android和iOS的屏幕使用時間功能、Facebook等社交平台的“數字福祉”工具、騰訊視頻的護眼模式對用戶視力的保護等。
 

        第二,保障個人的工作和自由發展,人人都有追求幸福工作的權利。目前而言,人工智能的經濟影響依然相對有限,不可能很快造成大規模失業,也不可能終結人類工作,因爲技術采納和滲透往往需要數年甚至數十年,需要對生産流程、組織設計、商業模式、供應鏈、法律制度、文化期待等各方面做出調整和改變。雖然短期內人工智能可能影響部分常規性的、重複性的工作。長遠來看,以機器學習爲代表的人工智能技術對人類社會、經濟和工作的影響將是深刻的,但人類的角色和作用不會被削弱,相反會被加強和增強。未來二十年內,90%以上的工作或多或少都需要數字技能。人們現在需要做的,就是爲當下和未來的勞動者提供適當的技能教育,爲過渡期勞動者提供再培訓、再教育的公平機會,支持早期教育和終身學習。
 


 

        可持續(sustainability):踐行“科技向善”,善用技術塑造健康包容可持續的智慧社會
 

        技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活與社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。與此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。
 

        将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能與医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益與价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AI for Good)已经成为全球发展趋势,呼吁與行动并存。以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景與使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。
 

        以智能時代的技術倫理重塑數字社會的信任
 

        互聯網、人工智能等數字技術發展到今天,給個人和社會帶來了諸多好處、便利和效率,未來還將持續推動經濟發展和社會進步。如今,步入智能時代,爲了重塑數字社會的信任,我們需要呼籲以數據和算法爲面向的新的技術倫理觀,實現技術、人、社會之間的良性互動和發展。最終,我們希望以新的技術倫理觀增進人類對于技術發展應用的信任,讓人工智能等技術進步持續造福人類和人類社會發展進步,塑造更健康包容可持續的智慧社會。

声明:本文仅代表作者本人观点,與青青草青青草青青草无关。青青草青青草青青草对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。凡本网注明“来源:青青草青青草青青草”的所有作品,版权均属于青青草青青草青青草。转载以及改编、摘录请注明来源:青青草青青草青青草()。違反上述聲明者,本網將追究其相關法律責任。同心智造網,機器人智能裝備青青草青青草青青草品牌服務平台。