1. <legend id="na31e"></legend>
      <del id="na31e"></del>

      <menuitem id="na31e"></menuitem>

      <sup id="na31e"></sup>

      <th id="na31e"></th>
    2. <th id="na31e"></th>
      1. 人民網(wǎng)
        人民網(wǎng)>>強(qiáng)國新聞

        強(qiáng)觀察|如何監(jiān)管生成式人工智能?征求意見稿來了

        人民網(wǎng)記者 周晶 王雪純
        2023年04月16日15:59 | 來源:人民網(wǎng)-強(qiáng)國論壇
        小字號

        生成式人工智能服務(wù)在帶來生產(chǎn)力巨大變革的同時,也存在算法偏見、信息泄露、內(nèi)容造假等安全隱患。近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),對生成式人工智能服務(wù)進(jìn)行了框架性規(guī)范。

        《征求意見稿》釋放了哪些信號?系好“安全帶”,對生成式人工智能健康發(fā)展和規(guī)范應(yīng)用有何作用?人民網(wǎng)“強(qiáng)觀察”欄目記者就此采訪了中國科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長張衛(wèi)明、北京大學(xué)信息化與信息管理研究中心主任黃文彬。

        既劃定界限也有發(fā)展空間

        生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。近來大火的ChatGPT即屬于此類技術(shù)。

        《征求意見稿》的公布,距離2022年11月30日對話式AI模型ChatGPT的發(fā)布不足5個月時間,如此高效出臺,釋放什么信號?

        在張衛(wèi)明看來,這種高效監(jiān)管顯示出國家層面對生成式人工智能的支持與重視。《征求意見稿》提出多維監(jiān)管意見,強(qiáng)調(diào)保護(hù),防止“濫用”,有助于國內(nèi)生成式人工智能服務(wù)健康發(fā)展!啊墩髑笠庖姼濉访鞔_提出,‘國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國際合作’,制定本辦法的目的是‘促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用’”。

        黃文彬表示,《征求意見稿》發(fā)出了生成式人工智能需要在維護(hù)國家安全和社會穩(wěn)定、保障公民和其他組織的合法權(quán)益的前提下研究發(fā)展與技術(shù)應(yīng)用的信號!斑@個管理辦法為保護(hù)個人、國家甚至全球安全將起到重要作用。尤其是在生成式人工智能日益廣泛應(yīng)用的當(dāng)下,人們需要足夠的專業(yè)知識才能判別智能產(chǎn)品輸出結(jié)果的真?zhèn)蝺?yōu)劣,這些結(jié)果可能會影響個人的品德思想與行為規(guī)范。一旦出現(xiàn)問題,可能會對整個社會或國家產(chǎn)生負(fù)面影響,這種負(fù)面影響有可能超過服務(wù)提供者或用戶的可控范圍!

        監(jiān)管措施迎頭趕上

        雖然生成式人工智能技術(shù)正在或即將引發(fā)生產(chǎn)力變革,但其產(chǎn)生的風(fēng)險(xiǎn)和挑戰(zhàn)不能忽視。

        比如,生成式人工智能技術(shù)會根據(jù)要求生成有說服力且有針對性的虛假信息;它還可能回答如何自殺、如何制造化學(xué)武器等可能導(dǎo)致嚴(yán)重后果的問題。諸如此類新現(xiàn)象,都需要監(jiān)管的與時俱進(jìn)。

        記者梳理發(fā)現(xiàn),不少國家重視生成式人工智能的監(jiān)管。英國政府于3月發(fā)布了第一份人工智能白皮書,概述了人工智能治理的5項(xiàng)原則。當(dāng)?shù)貢r間3月31日,意大利個人數(shù)據(jù)保護(hù)局宣布,從即日起禁止使用聊天機(jī)器人ChatGPT,限制其開發(fā)公司OpenAI處理意大利用戶信息,并立案調(diào)查。美國商務(wù)部近日就相關(guān)問責(zé)措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序。

        黃文彬表示,全球范圍內(nèi)加強(qiáng)生成式人工智能的監(jiān)管力度,意味著數(shù)據(jù)安全和隱私保護(hù)已經(jīng)成為生成式人工智能發(fā)展的重要前提。我國選擇生成式人工智能作為規(guī)制對象并積極發(fā)布《征求意見稿》,這在全世界范圍內(nèi)都是走在前列的。

        “人工智能技術(shù)存在著較大的不確定性和不可控性,應(yīng)該接受嚴(yán)格的安全評估,需要監(jiān)管來確保這些安全措施得以實(shí)施!睆埿l(wèi)明說,隨著更多應(yīng)用落地,一些潛在的風(fēng)險(xiǎn)將被認(rèn)識和暴露,《征求意見稿》只是第一步。

        提前布局守住“安全底線”

        防止生成式人工智能濫用,在充分發(fā)揮政府監(jiān)管職能的同時,也需科技企業(yè)提前布局,發(fā)揮技術(shù)能力守住“安全底線”。

        黃文彬表示,生成式人工智能只是一個工具。技術(shù)本身沒有好壞之分,但應(yīng)用技術(shù)時需要重點(diǎn)考慮智能產(chǎn)品情境背景的適用性、使用方式的合理性和應(yīng)用目的的正確性。比如,在用戶相對感覺心理孤獨(dú)空虛的情景下,智能產(chǎn)品可以提供聊天陪伴,以舒緩用戶心理為目的。然而,假如該產(chǎn)品提供偏頗甚至具有負(fù)面傾向性的聊天內(nèi)容,可能會使用戶產(chǎn)生自殺、暴力、歧視等問題,對個人及社會產(chǎn)生較大的傷害。

        《征求意見稿》也提出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息;尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽(yù)權(quán)和個人隱私,侵犯知識產(chǎn)權(quán);禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密等!斑@些規(guī)定都是為了促進(jìn)人工智能技術(shù)的健康發(fā)展和規(guī)范應(yīng)用!睆埿l(wèi)明說。

        “比如虛假信息檢測技術(shù),國外已經(jīng)布局,我們的安全技術(shù)專家、安全技術(shù)企業(yè)也應(yīng)盡快提出相應(yīng)的技術(shù)方案!睆埿l(wèi)明認(rèn)為,再先進(jìn)的科技都需要人來使用、人來控制、人來確保安全。實(shí)施更全面的人工監(jiān)管,時刻關(guān)注技術(shù)的安全性,確保其不會被濫用,才能充分發(fā)揮人工智能的潛力。

        (責(zé)編:王雪純、賀迎春)

        分享讓更多人看到

        返回頂部
        欧美日韩在线不卡视频,亚洲黄色一区在线观看,欧美日韩一区二区三区啊~哈哈,精品国产仑片一区二区三区
          1. <legend id="na31e"></legend>
            <del id="na31e"></del>

            <menuitem id="na31e"></menuitem>

            <sup id="na31e"></sup>

            <th id="na31e"></th>
          2. <th id="na31e"></th>