哦哇資訊網

【科學的溫度】聶再清:AI時代,把更多決策權還給個人資料主權方

由 中國新聞網 發表于 體育2023-01-19

中新網12月21日電 (記者 孟湘君)掃地機器人、升降桌攜帶攝像頭,家中被“偷拍”防不勝防?手機、電腦APP,日復一日“偷聽”你說話?動不動就收到房產中介、早教、健身機構的“騷擾資訊”?個人就醫健康資料接入網際網路,究竟誰有權檢視?

Web3。0時代正在到來,人工智慧應用越來越廣泛,個人隱私資料和資訊洩漏問題隨之而來。隱私被洩漏,該找誰?如何做好資料保護和管理?人工智慧被惡意使用,責任歸屬如何劃定?

就這些問題,中新網記者邀請清華大學國強教授、智慧產業研究院(AIR)首席研究員聶再清,展開深入解讀。

資料圖:聶再清。受訪者供圖

“個人隱私資訊,遵循最小範圍收集原則”

網上流傳著一種說法,即手機、電腦裡一些APP可能在“偷聽、偷看”持有者說話,透過使用者搜尋的常用關鍵詞及通話錄音高頻詞,來分析使用者喜好並進行商品和服務推薦,聶再清表示,有這種說法,但要具體情況具體分析。

他指出,其實從資料輸入開始,到瀏覽器或其他軟體,再到真正的系統裡,要經過各種程式。正規來講,所有軟體都應遵守使用者隱私協議和國家相關法律法規,都要與使用者籤隱私協議。傳輸過程中軟體是不是在“偷聽”,到底哪個軟體在“偷聽”,要具體分析。在一個軟體當中,利用好使用者的某些個人資訊,也可能能為使用者帶來價值。

聶再清舉例稱,比如音樂軟體記住使用者所聽歌曲,透過資料收集知曉使用者是誰的粉絲,就能按喜好薦歌。前提是,軟體應與使用者簽好隱私協議,告訴使用者在使用過程中會收集其所聽歌曲的名字、聽歌時長等,這類功能需要使用者授權,獲得使用者同意才能使用。使用者應該也有權不允許啟用這類個性化推薦功能。

最近,市場上流行的一些智慧傢俱、家電,比如掃地機器人、升降桌等攜帶攝像頭、麥克風等,也引發“偷取”個人隱私的質疑。一些消費者認為商家未充分明示,導致自己在家中被拍攝和錄音,從“不設防”變成了“防不勝防”。

資料圖:2022世界人工智慧大會上,智慧機器人亮相。 湯彥俊 攝

對此,聶再清表示對消費者的理解。他同時指出,對一些智慧家電來說,沒有攝像頭、麥克風就無法收集使用者語音指令和現場狀況,但同時,應當對市場上的商品進行更好地監管,他指出幾個判斷標準:

首先,商家是否明確告知使用者,何時收集資料、如何使用資料,是不是超出了實際使用和收集範圍?

第二,資料收集完後,商家會否拿來做別的用途?商家在整個過程中,一定要遵循國家法律法規和使用者隱私協議。

第三,軟體運營人員、機構負責人,應當是第一把關人,要保證軟體不做多餘動作,否則就等於是違反協議甚至違法,一定有相關法律法規來監管。

聶再清同時指出,商品、軟體設計者還應遵循最小範圍收集個人隱私資訊的原則,絕不要收集和產品使用者價值無關的資訊。

“將更多決策權還給個人資料主權方”

聶再清表示,隨著全球逐步邁入Web3。0時代,資料已成為機構或個人的核心私有資產。這就需要資料擁有方在政府允許範圍內管理和利用好資料資產,從而在日常生活中,讓資料資產發揮應有價值。

他指出,Web3。0時代和Web2。0時代的最大區別,就是Web2。0時代,更多地還是把資料擁有權以及其他權利交給平臺,但在Web3。0時代,希望能把決策權等很多權利還給資料主權方。這個資料主權方,可以指個人、機構,也可以指政府部門。對於個人而言資料主權是指人們對自身行為產生的資料擁有使用權和所有權,對於國家而言呢,資料主權是指存在於本國的資料要受到本國法律的約束。

“我認為這個方向特別好”,聶再清希望,未來在政府指定範圍內,個人資料主權方能逐漸擁有越來越多的決策權。

資料圖:兒童醫院就診區,醫生在診室內。殷立勤 攝

他以個人的就醫、健康資料舉例稱,可以嘗試在政府引導下,由相關機構和有參與意願的個人,嘗試共同建設健康資料聯盟鏈示範區。檢查、診斷、病史、鍛鍊康復、體檢等各種個人健康資料,都放在資料聯盟鏈上,個人持有金鑰。如想讓他人檢視自己的健康資料,就用金鑰授權。

聶再清進一步指出,是否允許他人檢視個人健康資料、是否可有償或無償將自己的資料提供給藥廠以做製藥研究等,都基於個人決策。機構也是一樣,某個機構如有需要,可在資料聯盟鏈上進行交易,所有資料交易都應可見且不可篡改,符合法律法規。

“將責任壓實到技術產品研發人身上”

圍繞人工智慧在應用中的風險管控問題,近日,在2022人工智慧合作與治理國際論壇上,中國工程院院士高文提出一個值得探討的觀點。他認為,如果沒有辦法阻止人工智慧的惡意使用,用人工智慧犯罪,只是時間早晚問題。

對於這一觀點,聶再清表示“完全同意”。他指出,工具本身沒有好壞,人工智慧跟別的工具沒有太大不同。只要是工具性質的發明創新,都會有被惡用問題,跟背後的人如何應用工具有關。

資料圖:第五屆進博會技術裝備展區內,參觀者在“Meta”展臺體驗元宇宙。殷立勤 攝

因此,他強調,為避免人工智慧被惡用,應該將責任壓實到技術、產品研發背後的人身上,讓他們對後果負責。對於技術創新和產品研發人員,要有一套越來越完善的管理制度,讓他們失去犯罪的可能性。

同時,聶再清指出,我們要鼓勵有可能帶來重大生活方式改變的顛覆式AI技術(或產品)創新,但同時需要一套完善的AI技術、產品的管理制度。對於可能有安全隱患的人工智慧技術創新和新產品,從原型研發到灰度內測,再到大規模使用,“就像新藥上市前要做臨床實驗一樣”,要證明AI創新產品和技術的安全性,然後才能大規模使用它。

使用過程中,也要不斷對效果和影響進行數字化監測,他進一步指出,比如現在網際網路公司做產品,都有大量數字化監測,每時每刻都有反饋。一旦發現某一功能對人產生了安全隱患,需要能及時讓人參與控制,讓系統回滾。

“總體上,我對人工智慧的發展前景及應用表示樂觀”,聶再清說。他認為,作為人類的助手和工具,人工智慧的應用總體上要符合人類科技向善的主流價值觀。科技在發展過程中不斷突破瓶頸,最終都是為了提升人們的生活質量。(完)

TAG: 聶再資料使用者人工智慧軟體