当前位置:首页 > 每日生活 > 正文

科技伦理是ESG核心议题 上市公司关注三大重点

  每经记者 徐肖逍    每经编辑 陈俊杰    

  你听说过靠猴子撑起的上市公司吗?

  2024年9月3日,登陆上交所科创板。益诺思的主营业务是提供生物医药在非临床阶段的研究服务,需要借助大量的实验动物验证药性,而实验用猴是其中参考价值最高的。

  怎么对待这些实验动物,成为一个备受关注的话题。动物伦理是科技伦理的重要组成部分,而科技伦理是上市公司ESG的核心议题之一。

科技伦理是ESG核心议题 上市公司关注三大重点  第1张

  

  每经品牌价值研究院通过分析A股及港股上市公司2023年度ESG报告发现,关注动物伦理、人工智能伦理及信息伦理,是上市公司ESG报告中科技伦理议题的三大重点。

  上市公司如何践行科技伦理议题?商道融绿董事长郭沛源在接受《每日经济新闻》记者采访时表示,公司在推出新技术或创新商业模式时,应进行伦理评估。需要重点关注两个环节:一是研发过程中的风险评估,类似于医药行业在开发新药时设立伦理委员会,制定特定行业中的规范和要求;二是建立干预或纠错机制,以便在出现问题时能够及时发现并纠正。

  动物伦理:实验猴与“3R原则”

  曾经,实验猴的处境很悲凉。它们从出生起就被关在狭小和肮脏的笼子里,用于各种实验和医学研究,经历各种折磨和痛苦,如被注射毒素、感染病毒、切除器官等,最后也很难善终。

  随着ESG理念越来越受重视,实验猴的命运也在发生改变。它们在高低不同的栖息架、秋千、水泥管、不锈钢围等设施上自由玩耍,定期还可以更换自己的玩具,甚至边玩还可以边听音乐!

  这是在《2023年度环境、社会及管治报告》发布的情景。改善实验动物条件的积极行动,是实验动物伦理的重要组成部分。

  对于实验动物,英国科学家W.M.S. Russell和R.L. Burch在1959年提出了著名的“3R原则”,即替代(Replacement)、减少(Reduction)和优化(Refinement)。替代原则鼓励使用无生命材料、低等动物等方法来替代高等动物的使用;减少原则要求在保证获取必要信息的前提下,通过改进实验设计和操作程序,减少使用的动物数量;优化原则要求改进实验程序和动物饲养条件,减少实验过程中动物的痛苦和不适。

  强调自己严格遵循“3R原则”,表示在科学研究中,使用较少量的动物获取同样多的实验数据,或使用一定数量的动物获得更多实验数据。同时,使用其他方法而不用动物进行实验,或使用低等动物代替高等动物达到同样目的。

  医药龙头也表明自己引入“3R原则”,通过定期消毒、温度监测、淡水供应和改善活动空间等方式不断完善动物的生活环境;严格限制杀虫剂等抗生素的使用,有效地减少对动物造成的伤害、疼痛和压力。

  在郭沛源看来,关于动物伦理,一个显著的挑战在于不同群体之间对此问题的看法存在较大差异。例如,养宠物的人与不养宠物的人可能对动物伦理的接受程度有所不同。这背后的核心问题在于人类利益与动物权益之间如何平衡。

  人工智能伦理:新兴领域引发各界热议

  “跟我说点我不知道的”“给我把那个药的说明书读一下”“我脚走路走多了会痛,给我推荐的路线要走路少一点的”……这是腾讯控股邀请149位中老年人参与大模型实验,他们所提出的问题。

  为了让老年人、残障朋友、困境女性、留守儿童、乡村与城市的低收入者等社会多元群体,享受到AI发展带来的自我赋能与科技福祉,腾讯正在尝试探索一项面向全社会的行动,即“AI向善语料库共创行动”。这个语料库被期待能够为上述弱势群体提供既能解决问题又能实现共情的智能回答。

  人工智能方兴未艾,相关伦理也引发各界热议。因为随着AI技术的快速发展和广泛应用,它对社会各个方面产生深远影响,同时也产生了一系列伦理问题,如算法偏见、因决策不透明带来的信任问题、人机关系等。

  对于这些问题,“BAT”三巨头分别组建了科技伦理委员会,希望构建安全的、令人信赖的大模型,打造平等及共享的人工智能。

  阿里巴巴在《2024阿里巴巴环境、社会和治理报告》中以单独的章节来阐述,其中特别强调应对大模型带来的风险。2024财年,根据大模型生命周期不同阶段,阿里巴巴在训练前、训练中和上线发布的三阶段均建立一系列的预防措施和应对解决方案。

  具体来看,阿里巴巴在大模型训练前重视数据的质量,选择可信度高的数据源;大模型训练中,提升模型生成内容的安全性;大模型上线发布后,对提问和回答进行风险判断并过滤有害内容,对大模型进行正确的价值引导等。

  百度在自己的ESG治理栏目中,建立了独立的百度AI伦理举措页面,包括设立科技伦理委员会、开展AI伦理培训、参与AI伦理标准制定及研发可解释的AI等。

  对于人工智能伦理,郭沛源表示了自己的担忧。他认为,这是一个新兴领域,他们缺乏经验,对相关问题还难以把握,包括不确定它会带来哪些具体问题,尤其是它是否会发展出超越人类智慧的能力,或者形成自我意识。

  “这些都是未知的,我们没有现成的答案。”郭沛源说,“目前我们对人工智能伦理的讨论,主要围绕一些基本框架和原则在进行。”

  信息伦理:数据安全有三把“锁”

  “方寸之地,不容有失!”这是在2023年定期开展的一场数据安全培训的口号。

  根据科大讯飞2023年度的ESG报告,当年完成安全赋能培训60余场,包括《安全合规训练营》《内容安全合规指引介绍》《生成式人工智能产品合规》等系列专题课程。

  数据安全培训,提高安全意识和相关技能,是科大讯飞保障网络安全的一把“锁”。

  同时,它还自研了安全大数据基础能力(SOC)和安全自动化编排(SOAR)建设,结合Web应用防火墙(WAF)、流量安全设备、主机入侵检测系统(HIDS)等多个安全技术平台,在技术和设备层面加强防御能力,作为保障网络安全的第二把“锁”。

  第三把“锁”则是成立了专门的应急响应组,从准备、检测、抑制、根除到回复和跟踪,都有全流程的应急响应方案。

  科技的进一步发展,让科技伦理问题也越来越凸显。上市公司在ESG实践中,如何更好地做好相关工作?

  郭沛源认为关键是公司在推出新技术或创新商业模式时,应进行伦理评估。他认为,目前这种评估相对较少,建议从重点行业开始实施,如生物医药和人工智能等。