自從OpenAI於2022年11月發布ChatGPT以來,直觀、容易使用且免費的對話式AI工具,已掀起生成式AI的熱潮,吸引上億人使用。2023年3月20日ChatGPT遭遇首次重大個人資料洩露之後,3月31日義大利資料保護監管機構以資料隱私問題為由,暫時禁止ChatGPT,成為第一個針對AI聊天機器人採取監管措施的西方國家。

在義大利決定限制之後,愛爾蘭、法國、德國等其他歐洲國家也密切關注中,是否跟進尚有待觀察。

AI變革引發的複雜困境

ChatGPT等大型語言模型向世界展示AI技術再進化,在生產力提升和成本削減方面具有潛在好處。然而,這類大型語言模型依賴大量資料來進行訓練,其中可能涉及未經當事人同意的個人資料,引起人們對隱私和資料蒐集合法性之疑慮。

而另一個隱私風險是透過對話方式,從用戶的提示中蒐集私人資訊,若用於工作上則無意中輸入公司業務機密資訊,使得AI模型有洩露機敏資料的風險。面對潛在資料安全問題,企業的風險意識也隨之提高,例如Amazon警告員工不要將機密資料輸入到ChatGPT;摩根大通銀行和Verizon電信甚至禁止員工使用。

ChatGPT、Google Bard等AI模型,不可避免地必須經歷人們對新技術的興趣與擔憂的矛盾。義大利資料監管機構基於非法使用個人資料而禁止ChatGPT,顯現AI技術的未來發展和資料隱私之間須取得平衡的問題。

其實技術本身是中性的,並沒有好壞分別,要點在於使用的方式將決定技術的好壞。生成式AI正在改變人們學習和創造的方式,此技術尚在進化中,使用得當可以幫助企業創造獨特的內容、產品和體驗,甚至能夠幫助解決複雜問題,未來將對經濟和社會產生重大影響。然而,隨著生成式AI變得更加強大和無處不在,要如何解決該技術的倫理和社會影響更顯得重要。

當AI技術持續不斷的進步,除了如何正確使用它,並運用在改善和解決人類生活各方面問題的基礎上之外,更值得思考的是,究竟要如何引導、激勵AI的未來朝向社會真正需求的方向推進,而非僅以技術驅動社會的發展。

由於AI可能對社會的改變與衝擊甚高,已有產學界出現要求暫停相關技術或應用發展的呼籲,但因投入相關技術與應用的業者及研發單位眾多,在實務上難以達成。尤其是對業者而言,雖然一方面擔心採用生成式AI帶來如資料外洩等問題,但一方面更擔心若不投入發展相關技術應用,將被同業或潛在競爭者取代。

因此,生成式AI的進展已難以按下暫停鍵,但在發展過程中,應如何在AI技術應用與AI監理之間取得平衡,當為各界在此波ChatGPT風潮下優先思考、研究的課題。

(本文為勵秀玲、洪春暉共同執筆,勵秀玲為資策會MIC產業顧問兼主任、洪春暉為資策會MIC所長)