久久久久久亚洲Av无码精品专口|超高清欧美videosseⅹo|欧美人与动牲交a欧|亚洲精品自产拍在线观看|

<dd id="uimec"><nav id="uimec"></nav></dd><xmp id="uimec">
  • <xmp id="uimec"><nav id="uimec"></nav>
    <menu id="uimec"></menu>
    <nav id="uimec"><strong id="uimec"></strong></nav>
  • <tt id="uimec"></tt>
  • 您的位置:首頁 >滾動 >

    關于我國AI安全治理的一些補充

    2023-11-28 11:01:42    來源:今日熱點網

    作者:高國潮

    作者簡介:高國潮,教授,博士生導師,美國哥倫比亞大學榮譽博士。國際著名計算機專家、經濟學家,擔任多個國家政府經濟戰略顧問。著有《現代信息技術》《七國電子政務的比較研究》《領導干部讀懂互聯網金融》《領導干部讀懂互聯網安全》《領導干部讀懂區塊鏈技術》《人民幣國際化進程》等三十多部著作。

    2022年11月30日,總部位于美國舊金山的OpenAI公司發布了ChatGPT,到2022年底,ChatGPT注冊用戶數量超過1億,僅用一個月時間實現注冊用戶破億,堪稱互聯網應用軟件破紀錄的事件。它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,以類人的方式聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼,寫論文等任務。

    ChatGPT是人類在計算機軟件領域地一次重大突破,標志著人工智能技術跨出了劃時代的一步。雖然目前的AI技術尚處于發展起步階段,但可以確定的是,人工智能必定是新一輪科技革命和產業變革的重要驅動力量。

    目前,人工智能已經在許多領域開展應用,已經涉及到我們生活的方方面面。

    在俄烏沖突中,人工智能技術能夠彌補交戰雙方在軍事人力、器械方面的不足,大大提升武器打擊效率。在烏克蘭挺過最初的一周之后,美西方國家提供了源源不斷的戰場協助。利用人工智能抓取圖像,通過衛星、無人機甚至是社交媒體X(原推特)獲取的信息,加以歸類匯總,為烏軍提供了識別、打擊、預警、決策等信息支持,對俄軍造成大量人員、裝備損失,這也是俄烏沖突久拖不決的一個重要因素。戰術方面,人工智能為大量無人機、巡飛彈提供地理識別能力,確保傳統武器發揮最大效能。在輿論認知作戰方面,人工智能生成的虛假錯誤信息鋪天蓋地,讓真相鋪所迷離。通過俄烏沖突實踐,已經充分證明人工智能在未來的戰場將發揮不可替代的作用。

    人工智能涉及哲學,認知科學,數學,神經生理學,心理學和計算機科學六大類;研究范疇包括自然語言處理,知識表現,智能搜索,推理,規劃,機器學習,知識獲取,組合調度問題,感知問題,模式識別,邏輯程序設計軟計算,不精確和不確定的管理,人工生命,神經網絡,復雜系統,遺傳算法。你所能想象到的領域,都能找到人工智能的影子。

    隨著人工智能發展加速,由此引發的問題逐漸擺上臺面。

    2023年6月,歐洲議會通過了《AI法案》授權草案,草案內容包括用于監督人工智能基礎模型的分級管理辦法。

    2023年10月,由中國全國信息安全標準化技術委員會組織,面向社會公開征求《生成式人工智能服務安全基本要求》意見。同月,日本首相岸田文雄在日本京都發表演講,公布面向生成式人工智能的監管計劃。

    10月底,美國總統拜登簽署了首份關于人工智能的行政命令。命令要求最新行政命令要求,對美國國家安全、經濟、公共健康或安全構成風險的人工智能系統的開發者在向公眾發布之前,應該根據《國防生產法》與美國政府分享安全測試的結果。同時命令指示各機構制定測試標準,并解決相關的化學、生物、放射性、核和網絡安全風險。

    2023年11月,英國全球第一屆人工智能安全峰會在英國召開,與會各國討論了當下全球人工智能治理的問題。中國科技部副部長吳朝暉率團參會并在峰會開幕式上發表講話,并在會后聯合發布《宣言》,該《宣言》成為“第一份關于有必要監管AI發展的全球聲明”。

    細數之下可以發現,傳統科技強國如中、美、歐盟、日本等國家都在今年下半年密集出臺了關于AI管理辦法,充分體現了在人工智能治理領域的迫切性。在11月的峰會上,東道主英國首相蘇納克甚至警告稱,AI可能給人類帶來的風險可與核戰爭相當,當然這種說法采用了一些修辭手段。

    2023年8月31日,我國首批大模型產品獲批名單公布,包括百度的“文言一心”,抖音的“云雀”,智普AI的“GLM”,中科院的“紫東太初”,百川智能的“百川”,商湯的“日日新”,MiniMax的“ABAB”及上海AI實驗室的“書生通用大模型”等八家公司獲得運營資質。11月6日,國內由好未來營運的首個AI學習類大模型MathGPT也完成相關備案并通過審核。

    這是自手機應用APP之后的又一個井噴賽道,在起步階段就可以預見未來競爭的激烈程度,為了促進行業健康發展,中國相關部門及時制定了《生成式人工智能服務安全基本要求》?!兑蟆窂恼Z料安全、模型安全、安全措施、安全評估等四個方面對我國AI發展進行指導。其中重點圍繞語料安全展開內容占比超過40%,與筆者去年底撰寫的關于ChatGPT的一篇文章判斷大體相符。

    筆者談到,與ChatGPT的互動本質與我們在搜索引擎上查詢資訊并無二致,不同點在于,搜索引擎查找結果后,還需要操作者進行手動篩選,而ChatGPT能夠將搜索結果以隨機、多層次的形式體現,但檢索出來的答案內容,仍然是在已有數據庫中提取。由于我們更加習慣AI給出生硬、重復的回答,因此,當一種全新的呈現形式出現在我們眼前的時候,我們詫異于回答多元的同時,會產生一種AI已經可以使用人類語言的錯覺,在人們逐漸適應這種錯覺以后,ChatGPT還是會回歸到它應有的位置。使用者所感受到的所謂ChatGPT情緒,實際上來自互聯網本身,ChatGPT檢索到的相關正面信息越多,那么你就覺得它很陽光;當負面信息接受到一定程度,它傳遞的就是沮喪,除非開發者進行人為干預。

    國際著名經濟學家、多國政府經濟戰略顧問高國潮教授認為,通常所講的AI,大多數情況下指代的是人工智能語言模型,因此,AI生成的結果是否符合管理要求,提供的服務質量是否高質,依靠的是語料數據庫支撐,語料庫的安全就是AI安全。 AI在人類生產生活中扮演的是一種輔助角色,作用在于篩選、提供有效信息以幫助使用者獲得認知或者做出決策,AI的風險歸根結底在于做決策的人而不是AI本身,AI助力之下,為善與作惡都將變得異常精準和高效。

    管控AI風險,本質就是管控好AI為使用者帶來的認知風險及決策風險。在認知錯誤的基礎上又會加劇決策錯誤,這兩種風險是一體同源的關系,只是后者是前者更加極端的表現。AI帶來的風險可以視作當前網絡生態的進化版本,生活中這種事例隨處可見,例如用戶搜索疾病信息時,被動接收錯誤信息,夸大疾病后果而導致過度醫療,又或者走向另一個極端,對疾病放任不管而導致錯過最佳治療時期;受到網絡宣傳的高息誘惑,冒冒失失投入資金結果血本無歸;或者受到別有用心之人挑撥教唆,對他人甚至是政府職能部門言語攻擊,制造社會對立激化矛盾。這些都是在AI使用過程中可能帶來的風險。

    在《生成式人工智能服務安全基本要求》中,相關部門已經制定了一套全面管理總則,本文作者試圖根據筆者長期對互聯網生態觀察,從微觀角度提出一些完善建議。

    一、AI潛在用戶人群畫像。

    在中國,互聯網技術發達程度已經領先世界,各種專業細分領域APP都相當成熟。AI用戶是整體互聯網用戶的一個細分部分,準確的說,是互聯網搜索引擎部分用戶轉移。之所以如此定義,是由AI語言模型工作原理決定的。人類與AI的互動本質與我們在搜索引擎上查詢資訊并無二致,不同點在于,搜索引擎查找結果后,還需要使用者進行手動篩選,而AI能夠將搜索結果以更貼近人類語言的形式體現,但檢索出來的答案內容,仍然是在已有數據庫中提取。

    互聯網交互平臺的主要特征是信息可以不受地域、不受對象影響地進行交換,對受眾用戶產生什么樣的導向影響,完全取決于信息提供者。AI是基于互聯網誕生的新產品品類。因此,參考傳統互聯網用戶特性,對我們深入了解AI使用戶可能面臨的風險同樣具有借鑒價值。

    受影響人群按危害程度大致可以分為:

    1.焦慮恐懼型

    這類使用者或者家庭往往遭遇重大變故,處于一種“病急亂投醫”心態,在通過各種正常渠道無法有效擺脫困境的情況下,在互聯網尋求幫助。用戶因處于對某一事物處理無果而陷入焦慮,失去對事物真偽辨別能力,亦或在強烈心理暗示下,更愿意相信一些違背常規的解決方式。

    這類人群以網絡求醫者及網絡詐騙受害者為典型代表。當人們處于病痛折磨下,通過現有科學醫療手段無法獲得滿意治療效果時,人們就會轉向虛無縹緲的“玄學醫療”,其最嚴重的結果就是人財兩空。網絡詐騙受害者則是犯罪分子利用非法獲取的個人信息,不斷對受害人進行心理施壓,讓受害人焦慮情緒上升至恐懼狀態,最終達到詐騙受害者財物的目的。

    這類受害人群影響限于個體,但受害者經歷往往會被別有用心的人加以利用,從而升級為受大眾關注的熱點事件。

    2.沖動盲從型

    這類人群容易受到外部信息干擾產生共鳴,是影響范圍最大的,同時也是不法人員重點關注的群體。

    網絡虛假信息在大多數時候是可以被發現的。例如,追尋信息來源,看看信息發布者是否使用的是一手素材、發布平臺是否合法合規、發布者過往發布內容立場傾向等,通過這些可以大體判斷信息提供人員可信程度;又或者在網絡搜索其他官方信息來源,相互印證,即可辨別信息是客觀或是經過發布者編造。

    這類群體對熱點事件都出于獵奇心理,看熱鬧的心態導致他們沒有追查事實真相的習慣,一旦情緒被挑撥,就跟著他人指揮棒起舞。影響這類人群危害主要表現在外部勢力對我們意識、認知的干擾、入侵。

    二、語料來源或者說不良導向信息提供來源呈現以下特點。

    越來越多的證據表明,錯誤信息的傳播是有組織有計劃的集團化行為。

    1.組織性

    在已知的案例當中,虛假信息散布呈現出有組織特性。在炮制虛假內容過程當中,各環節流程分別有專業人員擔任。文案必須生動有感染力,能夠快速、精準抓住受眾痛點,依照目的制造導向性話題;水軍負責助推氣氛,營造熱點假象,提高民眾關注度;控評人員則負責清理對立言論,壓制不同聲音;有專業的績效考核人員,負責檢視輿論效果,并與虛假信息散布者收入掛鉤。

    這些行為背后大多數都是一些境外NGO組織或者企業操控,從信息源頭到內容呈現都能具備完整的邏輯,很難讓人分辨真假。

    有組織、有計劃的散布虛假信息行為是打壓正面言論的常用手段,有財力支持的集體,通過長期、密集的對立、諷刺言論,消磨對方斗志,慢慢占領輿論陣地。

    2.偽裝性

    虛假信息散布者在散布虛假信息的過程中,由于我國相關部門強力監管,往往使用一些字符或者所謂的“網絡?!眮硖娲囟▋热?,具有一定的偽裝能力,以逃避網絡監管。

    例如,英文字母“TG”組合特指的是中國共產黨,字母“T”代表黨徽中的錘子,字母“G”代表黨徽中的鐮刀,二者結合即代表中國共產黨。另一個比較著名的梗是“蛋炒飯”,這個名詞特指含義誕生于10年代早中期,意思源于網絡造謠“毛岸英烈士是由于在志愿軍指揮部炒蛋炒飯而招致美軍轟炸”,后來“蛋炒飯”這個梗被專門用于抹黑毛主席及其后人。

    這類言論往往伴隨歷史虛無主義而生,通過地攤文學式的造謠抹黑,影響的是一些價值觀、歷史觀尚未成型的青少年群體。

    3.目的性

    所有虛假信息散布都以擾亂輿論、制造對立、獲取經濟利益為目的,這種人不具備新聞采編資格及素質,通常以某一新聞事件為原始素材進行內容二次加工,其觀點看似主持正義,實則心懷叵測。

    如四川崇州狗傷人事件后,呼吁規范養狗是正常的輿論反思結果,但偏偏在某些人刻意挑動下,討論主題向“國人是否善待動物”、“中國人對待動物是否友善”偏離,最終指向無非就是國人素質不夠高,應該無限反思這類陳詞濫調。

    這類言論最具有隱蔽性,因為發聲者一般會站在道德制高點,不會直白的體現自己的利益訴求。然而事實是,通過這些人的挑唆,簡單的事情會變得復雜,矛盾的對立會變得尖銳。不過在網民變得日漸成熟理性的今天,這些人正在慢慢失去市場,僅剩一些頑固不化的既得利益者仍在堅持。

    4.產業化

    虛假信息散布渠道在我國網絡發展多年,已經形成了一套固有模式,每次網絡謠言都有一些所謂網絡專家、名人大V助力發酵,其中虛假信息編撰者需要有影響力的傳播渠道,而所謂名人則需要標新立異的話題來提高自身曝光。造假者與傳播者在一次又一次的合作中,各取所需,已經形成默契,詐騙及造謠模式在各團伙之間推廣復制。

    如頻頻曝光的網絡帶貨,從網紅到明星,賣出的產品幾乎都是產地不明,沒有獲得質檢部門批準生產的三無產品。

    5.便捷化

    與傳統散布虛假信息不同,利用網絡散布虛假信息僅需要簡單的“復制+粘貼”操作。相對于線下方式,在網絡散布虛假信息甚至不需要傳播者去思考信息是否符合邏輯,而僅僅只需要挑動一下傳播者的情緒,能夠讓傳播者與虛假信息編造者產生一絲共鳴,即可完成虛假信息地病毒式裂變次級傳遞。

    網絡的開放性,讓所有人可以不受地域限制的接觸到虛假信息,這就造成了所謂“造謠一張嘴,辟謠跑斷腿”的怪現象。

    三、在AI時代,風險管控應該更貼近生活。

    筆者之所以習慣拿生成式AI與搜索引擎類比,是因為早在去年ChatGPT發布時,筆者已經有過使用體驗。

    國際著名經濟學家、多國政府經濟戰略顧問高國潮教授認為,即使作為最有代表性的人工智能語言模型,ChatGPT仍然沒有跳出“人為”的范疇。時至今日,AI給出的解答依然是從語料庫中搜索、篩選最接近提問內容,加以人性化的體現。這一特征用“類人”描述更加客觀,AI只能提供總結式的答案,而并非創造式,這就將AI語料庫的屬性頂到了最重要的位置。

    同時,AI模型能夠呈現出“智能”狀態,是因為AI語料來源是開源形式,資料庫中儲存了各種各樣,五花八門的答案,才能達到“總有一款適合你”的效果,這也是AI魅力所在。而開源形式的語料就不可避免的會摻雜一些“糟粕”的東西,這些誤導信源或無意或有意,始終會是一個長期的存在。

    如果用現有的互聯網產品與AI生成答案做對比,你會發現,后者無限接近于類似百度、360等網絡百科給予的回答。而AI則是將這些答案分解以后,以對話段落的形式呈現。

    AI在生活中充當的是一個新型工具的角色,是一種輔助工具,而輔助結果是好是壞,最終取決于使用這個工具的人,因此,我們要保證AI使用產生正面效果,不妨多從使用者的角度來思考問題。

    1.注意網絡隱晦用語對AI語言模型造成的沖擊。

    如筆者上文所述,我們在監管AI語料來源時,應充分參考當前網絡流行文化的影響,杜絕類似“蛋炒飯”之類的惡意文化侵蝕民族記憶,詆毀民族英烈。

    AI開源語料來自網絡,因此保障AI語料安全,本質上就是凈化網絡語言環境。在開源語料收集時,應廣泛聽取民間發聲,在對某一關鍵詞投訴或舉報達到一定數量或比例時,應及時納入管控,避免不法人員利用關鍵詞監管漏洞從事違法活動。

    在我們不斷加強網絡監管的高壓態勢下,明目張膽的詆毀、攻擊黨和政府行為顯然是沒有生存土壤的,我們應投入更多精力來整治這種指桑罵槐的隱性侵蝕現象。

    2.應充分考慮使用者習慣,主動將正確信息以直觀方式呈現。

    在AI生成內容中,我們應更多尊重用戶使用習慣,采用類似香煙標識的形式,在對話框醒目處,以直接、直觀的方式呈現正確內容。

    一個問題的答案不一定是唯一,站在不同的角度會有不同的選擇,生成式AI會根據語料數據庫中的元素,給出各種符合提問關鍵的答案,在這些答案中,質量是良莠不齊的,如何取舍,最終還是落實在使用者身上。

    經常是用類搜索引擎的用戶都有一種慣性,使用類似工具目的是一個尋求答案,而只有少部分人會對搜索答案產生質疑,即使有疑問,也沒有過多時間與精力去追查、考證正確答案。因此,應在盡量短的時間內,讓用戶獲取正確信息,建立正確認知。

    即使在后續呈現內容中,出現異常內容,也能夠在前期為用戶提供內容比對,起到“早預防”的效果。

    在關于正在發酵事件問答時,應及時將行政職能部門調查結果置于首位,在沒有權威調查結果公布之前,應予以提示。采取主動出擊的策略,堅決鏟除謠言孳生的土壤。

    3.語料提供者應建立等級制,按等級不同采用權重不同。

    網絡是一個開放的平臺,正是由于其能提供一個暢所欲言的平臺,才能產生強大吸引力。同時,網絡也是魚龍混雜的平臺,因為你永遠不知道在另一個終端使用者到底是什么人?有什么目的?

    我們可以參考網絡百科對于素材來源的要求,建立一套語料提供者的等級制度。在這個制度中,開源語料供應者按中央到地方、官媒到自媒體實施等級權重遞減,不同權重對最后AI生成答案是否采信成正比,用以保障AI生成答案思想、內容與監管者保持一致。

    權重制度的好處在于,提高干擾語料來源提供者門檻,增加刻意污染AI語料庫的時間成本,避免不法人員注冊大量賬號,采取內容轟炸戰術。同時也能提高語料供應者的責任感,讓他們在編寫內容時更多注重于內容質量,而不是僅僅是以答案是否吸睛為標準。

    4.避免形式主義,調動“沉默的大多數”,讓更多人參與凈化網絡環境事業。

    很多網絡用戶是有強烈正義感的,對于一些不符合中國人價值觀的網絡亂象深惡痛絕,堅定維護國家、民族立場的大有人在,只是與這些亂象斗爭的渠道太窄或者說效果并不明顯,久而久之,這些人成為了“沉默的大多數”。

    “沉默的大多數”形成于10年代中期,在當時的互聯網輿論環境中,敵對人員有組織的對黨和國家進行攻擊抹黑,而我國網民只能進行松散對抗,往往出現一些正面呼聲,隨之而來的是對方成群圍攻、嘲諷。對于這類言論投訴,處理機構往往是平臺運營方,處于商業利益及維護平臺人氣考慮,這些舉報投訴往往不了了之,長期處于這種抗爭無果的抑郁環境中,原本愿意為正義發聲的人變得逐漸沉默。

    毛主席在《論持久戰》中提到“戰爭的偉力之最深的根源,存在與民眾之中”。AI有可能成為新的輿論戰場,那么我們就應以戰斗的姿態慎重對待這個問題,調動全民參與規模,讓絕大多數熱愛祖國擁護共產黨的網絡民眾自覺參與維護網絡語境的行動中來,這些人貼近網絡、了解網絡,他們地參與能讓互聯網的陰暗無所遁形。

    我們這些年遭遇了外部勢力前所未有的圍堵遏制,事實證明,想要從外部擊潰中國的可能性幾乎為零,從內部制造混亂才是有效且成本最低的方式?;ヂ摼W的本質是信息交互平臺,所以它從誕生之初就注定成為敵我對峙的陣地,直至互聯網也面臨消亡的時刻,否則它將一直存在。

    中國本身就是互聯網技術強國也是互聯網應用強國,在今年11月英國舉行的全球人工智能(AI)安全峰會。英國外交發展大臣克萊弗利表示,如果一個AI技術領先者缺席,這項技術的風險將無法得到控制。我們的實力得到了全世界的認可,能夠與我們媲美的只有美國這一世界唯一超級大國。在互聯網治理方面,我們的經驗更是無人可匹。

    筆者認為,AI治理既需要監管者、開發者進行定期的安全審查,也需要所有使用者的通力配合。受成本和精力限制,監管與開發人員并不能時刻關注并更新模型,亦或在理論與實踐上存在脫節;用戶在日常使用過程中可能更容易發現問題所在,發現問題才能解決問題。

    AI領域治理成功與否,在各項法律法規逐步完善的基礎上,應做到來源于生活,貼近于生活。反對教條式的辦公室治理思維,擬定的規則只要得到認真執行,對于AI風險把控其實并非想象之難。


    關鍵詞:

    相關閱讀

    <dd id="uimec"><nav id="uimec"></nav></dd><xmp id="uimec">
  • <xmp id="uimec"><nav id="uimec"></nav>
    <menu id="uimec"></menu>
    <nav id="uimec"><strong id="uimec"></strong></nav>
  • <tt id="uimec"></tt>