中文
LERA 的核心前提是:系统可以计算、推荐、分析,但最终涉及高后果执行时,责任不能从人类手中消失。
这意味着,AI 可以参与判断过程,但不能天然取得最终合法性来源。任何执行如果会带来不可逆、延迟显现或社会不可接受的后果,就必须能够追溯到明确的人类授权与责任归属。
所以,LERA 不是为了替代人类判断,而是为了防止人类判断在自动化流程中被架空。