如今,生成式AI对消费者打开大门,让世界意识到AI的变革潜力,但也引出许多争论需要进一步思考,导致当前社会已面临对生成式AI技术采取立场的难题。

生成式AI技术与社会之间的距离

生成式AI技术从开发到成功进入市场,除了技术本身之外,需要关注该技术识别和解决社会挑战的能力,亦即该技术为社会采用的成熟度。荷兰应用科学研究机构(Netherlands Organization for Applied Scientific Research;TNO)提出社会镶嵌性(societal embeddedness level)方法,从对社会影响、利益相关叁与者,以及政策和监督等面向,可藉此观察生成式AI技术融入社会面临的课题。

第一个课题是减低对社会接受的负面冲击。生成式AI能够以类似人脑方式产生文本、图像、设计甚至写程式的能力,该技术具有极大发展潜力。但此技术也引发所有权、透明度、数据偏差可能性、错误讯息以及创作内容的智财权和伦理等疑虑。社会选择采用或抵制,将端视如何平衡这些不利的影响。

第二个课题是让公众能了解、信任生成式AI。技术的知识和交流有助於了解利害关系人对技术的看法,进而影响信任度。美国情报顾问公司Morning Consult於2023年2月调查显示,52%的受访者认为生成式AI会持续发展,但仅10%认为生成式AI模型非常值得信赖;另有11%认为完全不值得信赖。信任和安全需要跟上AI技术发展的脚步,因为惟有公众信任AI,AI技术才能得到广泛使用。

第三个课题是排除政策与法规的障碍。从OpenAI的案例中,我们看到生成式AI模型正遭受训练数据透明度和隐私保护的法律挑战,开发和使用AI工具的企业容易面临法律诉讼的风险。如此一来,将不利於AI技术融入社会。技术开发业者需要与政府、监管机关协调合作,确保遵守隐私相关法律,并在资料使用建立法律基础。

利用生成式AI的力量,同时管理风险

面对诸多的挑战和法律风险,需要政府和企业协力,帮助企业建立适当的防护措施来使用这些模型,增强组织人员的创造力和协作能力,而非试图阻止企业的探索和应用。鼓励企业加速投资於隐私与信任、提升演算模型检测技能,并於产品和服务设计开发阶段即融入隐私和安全设计。

此外,企业对组织人员进行教育亦是一项重要措施,可以帮助人员应对技术创新的挑战,并能以更开放态度看待新兴科技的发展,从中了解技术风险以及以最小化风险的行为为企业取得发展机会和建立优势。

(本文为励秀玲、洪春晖共同执笔,励秀玲为资策会MIC产业顾问兼主任)