OpenAI自2022年11月发布ChatGPT以来,直观、容易使用且免费的对话式AI工具,已掀起生成式AI的热潮,吸引上亿人使用。2023年3月20日ChatGPT遭遇首次重大个人资料泄露之後,3月31日义大利资料保护监管机构以资料隐私问题为由,暂时禁止ChatGPT,成为第一个针对AI聊天机器人采取监管措施的西方国家。

在义大利决定限制之後,爱尔兰、法国、德国等其他欧洲国家也密切关注中,是否跟进尚有待观察。

AI变革引发的复杂困境

ChatGPT等大型语言模型向世界展示AI技术再进化,在生产力提升和成本削减方面具有潜在好处。然而,这类大型语言模型依赖大量资料来进行训练,其中可能涉及未经当事人同意的个人资料,引起人们对隐私和资料搜集合法性之疑虑。

而另一个隐私风险是透过对话方式,从用户的提示中搜集私人资讯,若用於工作上则无意中输入公司业务机密资讯,使得AI模型有泄露机敏资料的风险。面对潜在资料安全问题,企业的风险意识也随之提高,例如Amazon警告员工不要将机密资料输入到ChatGPT;摩根大通银行和Verizon电信甚至禁止员工使用。

ChatGPT、Google Bard等AI模型,不可避免地必须经历人们对新技术的兴趣与担??的矛盾。义大利资料监管机构基於非法使用个人资料而禁止ChatGPT,显现AI技术的未来发展和资料隐私之间须取得平衡的问题。

其实技术本身是中性的,并没有好坏分别,要点在於使用的方式将决定技术的好坏。生成式AI正在改变人们学习和创造的方式,此技术尚在进化中,使用得当可以帮助企业创造独特的内容、产品和体验,甚至能够帮助解决复杂问题,未来将对经济和社会产生重大影响。然而,随着生成式AI变得更加强大和无处不在,要如何解决该技术的伦理和社会影响更显得重要。

当AI技术持续不断的进步,除了如何正确使用它,并运用在改善和解决人类生活各方面问题的基础上之外,更值得思考的是,究竟要如何引导、激励AI的未来朝向社会真正需求的方向推进,而非仅以技术驱动社会的发展。

由於AI可能对社会的改变与冲击甚高,已有产学界出现要求暂停相关技术或应用发展的呼吁,但因投入相关技术与应用的业者及研发单位众多,在实务上难以达成。尤其是对业者而言,虽然一方面担心采用生成式AI带来如资料外泄等问题,但一方面更担心若不投入发展相关技术应用,将被同业或潜在竞争者取代。

因此,生成式AI的进展已难以按下暂停键,但在发展过程中,应如何在AI技术应用与AI监理之间取得平衡,当为各界在此波ChatGPT风潮下优先思考、研究的课题。

(本文为励秀玲、洪春晖共同执笔,励秀玲为资策会MIC产业顾问兼主任)