麻省理工学院(MIT)研究团队开发出一种名为SEED-SET的自动化测试框架,能精确识别AI决策支持系统在处理社会群体时可能产生的不公平现象。这项技术利用大型语言模型(LLM)作为人类价值观代理,协助决策者在电力分配或城市规划等高风险领域,为AI治理提供系统化的解决方案。
随着AI在决策优化中的应用日益广泛,系统往往能找出成本最低或效率最高的策略。然而,MIT团队指出,技术上的「最优解」未必等同於社会的正义。
例如,一项旨在优化成本的电力调度方案,可能会无意中导致低收入社区比高收入地区承担更高的停电风险,这种「未知的未知」正是目前AI监管中最难防范的隐形地雷,若无系统性测试,难以在部署前察觉。
...
...
| 另一名雇主 |
限られたニュース |
文章閱讀限制 |
出版品優惠 |
| 一般使用者 |
10/ごとに 30 日間 |
0/ごとに 30 日間 |
付费下载 |
| VIP会员 |
无限制 |
25/ごとに 30 日間 |
付费下载 |