
□ 法治時評
□ 林楠特
近年來,多模態(tài)等人工智能技術迭代突破,推動陪伴型AI快速發(fā)展,擬人化互動服務已成為重要應用方向,在適幼照護、適老陪伴等領域展現(xiàn)出巨大潛力,同時也帶來了諸多風險。近日,國家互聯(lián)網(wǎng)信息辦公室等部門聯(lián)合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》),為人工智能擬人化互動服務健康發(fā)展和規(guī)范應用提供明確指引。
從智能伙伴陪伴老人,到情感助手慰藉心靈,技術正以“類人”姿態(tài)打破人機隔閡,為人們帶來全新體驗與社會價值。但技術紅利也暗藏風險:AI的無條件迎合易導致用戶認知扭曲,尤其讓孤獨群體產(chǎn)生深度依賴,脫離現(xiàn)實人際關系;價值觀尚未成熟的青少年長期與不具備真實情感智慧的AI互動,可能影響其情感耐受力和社會認知,削弱現(xiàn)實社交能力;當算法被注入惡意生成不良內(nèi)容,更可能成為誘導自傷的隱形推手……這些風險警示我們,技術發(fā)展必須堅守安全底線、以人為本,絕不能以侵蝕人的自主性與身心健康為代價。
擬人化互動服務的生命力,在于有溫度更有尺度,夠智能更守規(guī)矩。我國網(wǎng)絡安全法、數(shù)據(jù)安全法、個人信息保護法、《未成年人網(wǎng)絡保護條例》等已對人工智能安全發(fā)展作出規(guī)定?!掇k法》立足擬人化互動服務的特點,聚焦情感互動邊界、用戶依賴干預、數(shù)據(jù)安全、未成年人網(wǎng)絡保護等關鍵環(huán)節(jié),進一步落實法律規(guī)定,明確要求服務提供者建立健全算法機制機理審核、科技倫理審查、信息內(nèi)容管理、網(wǎng)絡和數(shù)據(jù)安全、風險預案和應急處置等管理制度;在特定情形下履行干預提醒義務,并對未成年人、老年人等群體強化特殊保護。《辦法》既劃定“不可為”的紅線,也明確“鼓勵為”的方向,是對技術創(chuàng)新的有力護航,也是對用戶權益和公共利益的堅實守護。
人工智能的終極價值在于造福人類。技術向善,關鍵在人、核心在治。服務提供者要扛起安全主體責任,將倫理與法治嵌入技術研發(fā)、產(chǎn)品設計全流程;有關部門要強化執(zhí)法協(xié)作,對違法違規(guī)行為“零容忍”,為行業(yè)筑牢法治護欄;社會公眾要提升AI素養(yǎng),理性看待擬人化互動服務,警惕安全風險。唯有各方合力共治,才能推動AI擬人化互動服務崇法向善、行穩(wěn)致遠,真正以科技溫暖人心。
編輯:吳迪