在人工智能產業(yè)發(fā)展過程中,個人信息安全、虛假網(wǎng)絡信息內容生成、算法歧視等問題時有發(fā)生。針對此,有關部門出臺《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等法律法規(guī),完善優(yōu)化人工智能應用的合法性問題。2023年7月份公布的《生成式人工智能服務管理暫行辦法》明確提出,支持行業(yè)組織、企業(yè)、教育和科研機構、公共文化機構、有關專業(yè)機構等在生成式人工智能技術創(chuàng)新、數(shù)據(jù)資源建設、轉化應用、風險防范等方面開展協(xié)作;推動公共數(shù)據(jù)分類分級有序開放,擴展高質量的公共訓練數(shù)據(jù)資源。這些具體舉措,對于化解潛在技術安全風險具有重要意義。接下來,還應多角度施策,筑牢人工智能安全防火墻。
一方面,持續(xù)細化人工智能產品研發(fā)者、服務提供者以及用戶的法律義務及其責任承擔方式。從長遠來看,難以控制的技術安全風險是限制科技創(chuàng)新的阻礙。原因在于,為了確保信息服務質量和功能穩(wěn)定性,事前控制技術風險的經濟效益遠高于事后行政干預和矯正科技創(chuàng)新方向。而生成式人工智能服務和產品呈現(xiàn)出超市場預期的智能化水平,不僅是ChatGPT面世之初展現(xiàn)的高質量文本編輯功能,還表現(xiàn)為代碼編寫、視頻制作等領域的高效生成。這種高度智能化特征使得網(wǎng)絡信息內容治理實踐面臨挑戰(zhàn),一旦被應用于網(wǎng)絡黑灰產領域,會對公民的人身安全和財產安全造成極大威脅。因此,應更加規(guī)范研發(fā)者和服務提供者的科技創(chuàng)新行為,借由事前安全風險評估、強制性算法備案等治理措施的法治化,引導產業(yè)的良性發(fā)展。
另一方面,借由保障型條款促成科技創(chuàng)新資源的高效分配,為經營主體營造公平公正的市場競爭環(huán)境。從技術創(chuàng)新環(huán)節(jié)來看,人工智能科技創(chuàng)新離不開算法、數(shù)據(jù)和算力三個要素,相應的法治保障體系也應當圍繞其展開。因此,要基于基礎科技創(chuàng)新、促進科技成果轉化、人才培養(yǎng)等角度提升算法模型的自主創(chuàng)新能力;拓展訓練數(shù)據(jù)獲取方式的多元化,充分保障中小企業(yè)獲取訓練數(shù)據(jù)的平等發(fā)展權。建構算力資源供給機制,囊括算力網(wǎng)絡建設、資源調度規(guī)劃、服務交易等具體內容。
關于我們 加入我們 聯(lián)系我們 商務合作
茶葉前線 www.cyqxw.com.cn 版權所有
投稿投訴聯(lián)系郵箱:8 8 6 2 3 9 [email protected]