當前位置: 華文天下 > 辟謠

腦機介面的激進發展需直面七大倫理難題

2024-02-02辟謠

段偉文

日前,美國企業家馬斯克宣布,他的科技初創公司Neuralink已將芯片植入到首位人體測試物件的大腦中且患者恢復良好。盡管Neuralink的早期探索重點是幫助因運動障礙和脊髓損傷而癱瘓的人,但與專註於應對癲癇、帕金森氏震顫或癱瘓等的其他大多數同業不同的是,其技術路線超越了具體的醫療目的,而主要基於腦機直連這個第一性原理,力圖創造一種能夠有效聯結人類思維和電腦與人工智能的通用介面。由此,馬斯克還進一步指出,運用其腦機介面技術,可以扭轉人們目前普遍擔憂的人類面對人工智能挑戰的頹勢,將其意義提升到克服人工智能對人類生存帶來的風險、解決人機共生問題的高度。

從科技界、學術界到社會公眾,Neuralink在植入式腦機介面技術上的每一次突破,都會引發廣泛討論,歡呼聲有之,更多的則是驚嘆、困惑和擔憂。在由此引出的諸多話題和爭議中,最引人深思的是腦機介面的加速研發和廣泛套用在社會倫理層面產生的長期與深遠影響。其中值得關註和思考的有以下七大倫理難題。

一是神經技術與人的深度融合帶來的對精神與物質、人類與技術的邊界如何劃分的問題。從存在論意義上來講,植入式腦機介面的發展實質上開啟了人機合成思維的新時期,神經技術器材及其軟件將日益發展為合成思維的有機構成部份。人類思維將因此面臨一場前所未有的嬗變:如果神經技術將長在人的腦神經系統之中,快樂、憂傷和記憶都可以用植入芯片加以調節,那麽人的思想意識和能改變思想意識的技術是否應該有一個倫理邊界?

二是對神經數據的普遍與深度采集和人們因此對精神私密與自主權難保的擔憂。隨著神經技術的發展,大腦和神經系統數據勢必將以更高分辨率、更大量、更普遍的方式更直接地收集。誰可以擁有完美的大腦和神經數據,誰有權存取它們,神經技術會發展成幹預我們作出獨立決策的讀心術嗎?為了應對這些問題,聯合國教科文組織正在研議制訂神經技術倫理方面的規範性檔,且就是否需要引入神經權利這一新型權利展開討論。

三是神經技術對人的心智和思想特征進行推斷與幹預的倫理界限何在。質言之,透過對大腦電化學活動的檢測、記錄、分析和幹預,腦機介面等神經技術具有神經成像(推斷心智特性)和神經幹預(改變心智特性)兩大功能。除非絕對禁止,這兩個功能必然帶來復雜的倫理爭議,必須透過跨學科對話與研究、公眾討論、行業自律等探尋一種可為相關群體接受的倫理界限,以此影響相關的法律規制、政府監管和產業等的科技向善實踐。

四是神經技術對主體性特別是人的尊嚴和人格完整的沖擊不容忽視,必須劃定相應的科技倫理底線。實際上,神經技術對人的長期影響中最值得關註的可能是對人的主體性的侵蝕、欺騙和僭越。除了對人的生物身體和物理行為的遠端控制等有形的控制之外,還應該關註對主體性各種無形的肆意損害。應該看到,植入記憶、信念或情感狀態、誘導人的自我封閉心理等將人的精神和思想作為控制物件的神經技術研發和套用,都極可能嚴重損害人的尊嚴。嚴重改變大腦電化學特性的神經技術則可能會引起身心狀態的復雜改變、影響人的自我認同、使主體的精神完整性和身心和諧遭到不可逆的傷害。

五是神經技術帶來的認知增強的可能性及其限度,以及由此衍生出的神經技術的可及性問題、個人心智特征改變的自決權及其限度問題。從認知能力增強的角度來講,神經技術在改善認知能力障礙方面大有可為,但考慮到認知增強可能帶來的不確定風險和研究資源有限等因素,一般認為對於能力正常者改善性的認知增強應審慎展開。從科技普惠性的維度看,目前值得關註的是神經技術發展如何提高可及性,以滿足更多失能者的需求。但隨著神經技術的成本和門檻的降低,自助性的神經技術的普及必然會帶來個人能否完全具有心智改變的自決權等需要認真對待的倫理難題。

六是如何透過提升公眾神經倫理素養,應對掌握神經技術的個人和非傳統實體對神經技術的濫用。神經技術未來的許多威脅很可能來自不受管理和監管約束的個人和非傳統實體,對這類挑戰,很難透過一般的法律倫理加以規制,這使得個人神經倫理素養的提升成為必不可少的應對之道。

七是神經技術產品和服務如何透過可操作的倫理設計推進負責任的神經技術研究與創新。其要點是將對神經技術的倫理考量與使用者的使用實際相結合,透過更加透明的操作、更多自主性的選擇、動態的神經數據流保護和強調使用者視角的設計等,減少套用的風險。

面對腦機介面、人工智能等驅動的深度科技化的未來,我們每個人需要更加認真地審視科技的現實利弊和深遠影響,成為善於駕馭科技與倫理雙螺旋的科技智人。(作者是中國社科院科學技術和社會研究中心主任、研究員)▲