意大利禁用ChatGPT 數據安全再次被擺上檯面

APD NEWS

text

在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。

近日,意大利宣佈禁止使用ChatGPT,並限制OpenAI處理意大利用戶信息,同時,個人數據保護局開始對此前ChatGPT立案調查。這也使得以ChatGPT爲代表的人工智能大模型還未全面進入普及應用,就迎頭撞上了數據安全的質疑。

要看到,海量數據的積累帶來了人工智能的生產力質變,同時,從互聯網誕生起就始終縈繞左右的數據安全、隱私保護等問題,也成爲了人工智能大模型無法迴避的伴生難題。

從歷史來看,ChatGPT在歐洲率先遭遇數據安全的質疑幾乎是必然。

自進入互聯網時代以來,歐洲在個人數據保護方面就始終走在全球前列,相關監管堪稱全球最早最嚴。

1981年開始,歐洲議會就通過了世界上第一個個人數據保護條例,此後,相關的監管條例始終緊跟技術變化,甚至始終領先技術一步。例如,1995年,歐盟進一步針對個人數據隱私和流動通過了新的立法,而此時,互聯網時代也只是剛剛開啓而已。

今時今日,關於個人數據保護的概念,多是在歐洲被率先定義,例如,數據的知情同意權、被遺忘權、數據攜帶權等等。因此,意大利援引全世界最嚴格的數據保護條例,對現在仍在測試階段的ChatGPT進行封禁,既顯得突然,同時又順理成章。

客觀上說,當前的ChatGPT在數據隱私、合規、倫理等領域的確處在測試探索階段,用戶在使用的同時,也在不斷提供新的數據來訓練該模型。

正因爲仍處在黑盒測試之中,這些數據的合法性來源、用戶數據尤其是隱私的保護、黑盒中的數據與知識產權衝突等問題,都給法律、監管帶來了新的挑戰。因此,審慎爲上的歐洲才決定採取一刀切的封殺政策。

如何確保數據授權、界定數據安全的責任與科技公司的義務,規避隱私泄露、知識產權等風險,這些都將是人工智能在大規模介入公共領域後,必須首先解決的問題。

但與此同時,意大利這種一刀切的政策也並不值得鼓勵。

過於嚴格且一刀切的監管政策,曾扼殺了歐洲在互聯網時代的科技創新能力。今天,在關於歐洲爲何錯過移動互聯網時代的討論中,過於嚴苛缺少彈性的監管政策,一直被視爲重要原因。

例如,2016年歐盟通過了史上最嚴格的個人數據保護法之後,多家全球科技企業在歐洲均捲入了在數據上的反覆博弈。

2019年,美國信息技術和創新基金會下屬的數據創新中心曾發佈報告指出,歐盟的數據保護條例並未產生預期的積極效果,反而增加了企業的數據合規成本、損害科技公司創新和競爭力,同時增加了消費者獲取在線服務的成本和不信任感。

回到人工智能領域,在全球大賽跑的背景下,既要提前設定紅線和規則以保護公民數據安全,同時,又要防止監管過度帶來的創新不足問題,這是各國共同面對的政策難題,需要不斷尋找兩者之間的平衡。

唯一可以確定的是,從人類近百年來科技創新與倫理衝突的經驗來看,在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。

(來源:中新網)