中文

【AGI 安全】LERA 如何保留人类判断与最终责任?

LERA 如何保留人类判断与最终责任?

LERA 的核心前提是:系统可以计算、推荐、分析,
但最终涉及高后果执行时,责任不能从人类手中消失。

这意味着,AI 可以参与判断过程,但不能天然取得最终合法性来源。
任何执行如果会带来不可逆、延迟显现或社会不可接受的后果,就必须能够追溯到明确的人类授权与责任归属。

所以,LERA 不是为了替代人类判断,
而是为了防止人类判断在自动化流程中被架空。


相关文章