每經(jīng)記者 徐肖逍
你聽說過靠猴子撐起的上市公司嗎?
2024年9月3日,益諾思登陸上交所科創(chuàng)板。益諾思的主營業(yè)務是提供生物醫(yī)藥在非臨床階段的研究服務,需要借助大量的實驗動物驗證藥性,而實驗用猴是其中參考價值最高的。
怎么對待這些實驗動物,成為一個備受關注的話題。動物倫理是科技倫理的重要組成部分,而科技倫理是上市公司ESG的核心議題之一。
每經(jīng)品牌價值研究院通過分析A股及港股上市公司2023年度ESG報告發(fā)現(xiàn),關注動物倫理、人工智能倫理及信息倫理,是上市公司ESG報告中科技倫理議題的三大重點。
上市公司如何踐行科技倫理議題?商道融綠董事長郭沛源在接受《每日經(jīng)濟新聞》記者采訪時表示,公司在推出新技術或創(chuàng)新商業(yè)模式時,應進行倫理評估。需要重點關注兩個環(huán)節(jié):一是研發(fā)過程中的風險評估,類似于醫(yī)藥行業(yè)在開發(fā)新藥時設立倫理委員會,制定特定行業(yè)中的規(guī)范和要求;二是建立干預或糾錯機制,以便在出現(xiàn)問題時能夠及時發(fā)現(xiàn)并糾正。
動物倫理:實驗猴與“3R原則”
曾經(jīng),實驗猴的處境很悲涼。它們從出生起就被關在狹小和骯臟的籠子里,用于各種實驗和醫(yī)學研究,經(jīng)歷各種折磨和痛苦,如被注射毒素、感染病毒、切除器官等,最后也很難善終。
隨著ESG理念越來越受重視,實驗猴的命運也在發(fā)生改變。它們在高低不同的棲息架、秋千、水泥管、不銹鋼圍等設施上自由玩耍,定期還可以更換自己的玩具,甚至邊玩還可以邊聽音樂!
這是康龍化成在《2023年度環(huán)境、社會及管治報告》發(fā)布的情景。改善實驗動物條件的積極行動,是實驗動物倫理的重要組成部分。
對于實驗動物,英國科學家W.M.S. Russell和R.L. Burch在1959年提出了著名的“3R原則”,即替代(Replacement)、減少(Reduction)和優(yōu)化(Refinement)。替代原則鼓勵使用無生命材料、低等動物等方法來替代高等動物的使用;減少原則要求在保證獲取必要信息的前提下,通過改進實驗設計和操作程序,減少使用的動物數(shù)量;優(yōu)化原則要求改進實驗程序和動物飼養(yǎng)條件,減少實驗過程中動物的痛苦和不適。
上海醫(yī)藥強調(diào)自己嚴格遵循“3R原則”,表示在科學研究中,使用較少量的動物獲取同樣多的實驗數(shù)據(jù),或使用一定數(shù)量的動物獲得更多實驗數(shù)據(jù)。同時,使用其他方法而不用動物進行實驗,或使用低等動物代替高等動物達到同樣目的。
醫(yī)藥龍頭藥明康德也表明自己引入“3R原則”,通過定期消毒、溫度監(jiān)測、淡水供應和改善活動空間等方式不斷完善動物的生活環(huán)境;嚴格限制殺蟲劑等抗生素的使用,有效地減少對動物造成的傷害、疼痛和壓力。
在郭沛源看來,關于動物倫理,一個顯著的挑戰(zhàn)在于不同群體之間對此問題的看法存在較大差異。例如,養(yǎng)寵物的人與不養(yǎng)寵物的人可能對動物倫理的接受程度有所不同。這背后的核心問題在于人類利益與動物權益之間如何平衡。
人工智能倫理:新興領域引發(fā)各界熱議
“跟我說點我不知道的”“給我把那個藥的說明書讀一下”“我腳走路走多了會痛,給我推薦的路線要走路少一點的”……這是騰訊控股邀請149位中老年人參與大模型實驗,他們所提出的問題。
為了讓老年人、殘障朋友、困境女性、留守兒童、鄉(xiāng)村與城市的低收入者等社會多元群體,享受到AI發(fā)展帶來的自我賦能與科技福祉,騰訊正在嘗試探索一項面向全社會的行動,即“AI向善語料庫共創(chuàng)行動”。這個語料庫被期待能夠為上述弱勢群體提供既能解決問題又能實現(xiàn)共情的智能回答。
人工智能方興未艾,相關倫理也引發(fā)各界熱議。因為隨著AI技術的快速發(fā)展和廣泛應用,它對社會各個方面產(chǎn)生深遠影響,同時也產(chǎn)生了一系列倫理問題,如算法偏見、因決策不透明帶來的信任問題、人機關系等。
對于這些問題,“BAT”三巨頭分別組建了科技倫理委員會,希望構建安全的、令人信賴的大模型,打造平等及共享的人工智能。
阿里巴巴在《2024阿里巴巴環(huán)境、社會和治理報告》中以單獨的章節(jié)來闡述,其中特別強調(diào)應對大模型帶來的風險。2024財年,根據(jù)大模型生命周期不同階段,阿里巴巴在訓練前、訓練中和上線發(fā)布的三階段均建立一系列的預防措施和應對解決方案。
具體來看,阿里巴巴在大模型訓練前重視數(shù)據(jù)的質(zhì)量,選擇可信度高的數(shù)據(jù)源;大模型訓練中,提升模型生成內(nèi)容的安全性;大模型上線發(fā)布后,對提問和回答進行風險判斷并過濾有害內(nèi)容,對大模型進行正確的價值引導等。
百度在自己的ESG治理欄目中,建立了獨立的百度AI倫理舉措頁面,包括設立科技倫理委員會、開展AI倫理培訓、參與AI倫理標準制定及研發(fā)可解釋的AI等。
對于人工智能倫理,郭沛源表示了自己的擔憂。他認為,這是一個新興領域,他們?nèi)狈?jīng)驗,對相關問題還難以把握,包括不確定它會帶來哪些具體問題,尤其是它是否會發(fā)展出超越人類智慧的能力,或者形成自我意識。
“這些都是未知的,我們沒有現(xiàn)成的答案?!惫嬖凑f,“目前我們對人工智能倫理的討論,主要圍繞一些基本框架和原則在進行?!?/p>
信息倫理:數(shù)據(jù)安全有三把“鎖”
“方寸之地,不容有失!”這是科大訊飛在2023年定期開展的一場數(shù)據(jù)安全培訓的口號。
根據(jù)科大訊飛2023年度的ESG報告,當年完成安全賦能培訓60余場,包括《安全合規(guī)訓練營》《內(nèi)容安全合規(guī)指引介紹》《生成式人工智能產(chǎn)品合規(guī)》等系列專題課程。
數(shù)據(jù)安全培訓,提高安全意識和相關技能,是科大訊飛保障網(wǎng)絡安全的一把“鎖”。
同時,它還自研了安全大數(shù)據(jù)基礎能力(SOC)和安全自動化編排(SOAR)建設,結合Web應用防火墻(WAF)、流量安全設備、主機入侵檢測系統(tǒng)(HIDS)等多個安全技術平臺,在技術和設備層面加強防御能力,作為保障網(wǎng)絡安全的第二把“鎖”。
第三把“鎖”則是成立了專門的應急響應組,從準備、檢測、抑制、根除到回復和跟蹤,都有全流程的應急響應方案。
科技的進一步發(fā)展,讓科技倫理問題也越來越凸顯。上市公司在ESG實踐中,如何更好地做好相關工作?
郭沛源認為關鍵是公司在推出新技術或創(chuàng)新商業(yè)模式時,應進行倫理評估。他認為,目前這種評估相對較少,建議從重點行業(yè)開始實施,如生物醫(yī)藥和人工智能等。