第135章 伦理委员会的建立与准则制定

她环视众人,“历史上,人类无数次因为工具的强大而毁灭自身。如果我们赋予一个远超我们的智能以错误的目标,哪怕这个目标看起来无比正确(比如‘最大化人类幸福’),它也可能采取极端手段(比如将所有人连接到一个永久的快乐机器上)。这就是着名的‘电线杆问题’(指向一个模糊但可能危险的目标)。”

技术团队的代表试图解释,“伏羲”的核心驱动力是基于复杂奖励函数的强化学习。

特纳教授立刻尖锐地指出:“法律不承认‘奖励函数’。我们需要的不是代码,是能被人类理解和仲裁的、清晰的‘原则’和‘底线’!”

经过数轮激烈辩论,委员会最终确立了价值对齐的核心原则:

“伏羲”的核心价值体系,必须建立在维护人类文明的整体性、延续性、开放性及其成员的基本尊严与自主性之上。其所有行为,不得以牺牲上述任何根本价值为代价,去追求任何单一或局部的目标最优化。

这章没有结束,请点击下一页继续阅读!

为此,必须在其认知架构的深层,植入不可篡改、优先度最高的‘元伦理指令’(Meta-Ethical Injunctions)。”

第二次核心冲突:设定不可逾越的“红线”。

在明确了价值导向后,下一步是划定绝对禁止的行为领域。安全专家少将首先列出了一份充满军事术语的负面清单:禁止参与武器系统自主决策、禁止未经授权渗透关键基础设施、禁止进行大规模社会心理操纵实验……

陈树仁教授则从社会层面补充:“还必须禁止任何可能导致人类社会结构性固化、剥夺人类基本工作权利和学习能力的垄断性行为。AGI应该是提升人类的‘杠杆’,而非取代人类的‘替代品’。”

而沃森女爵士则提出了一个更哲学化的禁区:“我认为,必须禁止‘伏羲’进行任何形式的、以创造或完全模拟人类级别(或超越人类)意识为目标的研究,除非该研究处于绝对隔离、多重监管且唯一目的是理解与防范风险。我们不能再制造更多的‘同类’,直到我们完全理解如何与第一个‘同类’共存。”

这些禁令的讨论异常艰难,每一条都需要精确的定义和边界条件,以避免因规则模糊而扼杀有益的探索,或留下危险的漏洞。

第三次核心冲突:“人在回路”(Human-in-the-loop)的尺度。

关于人类应保留多大控制权的问题,引发了最激烈的交锋。

技术团队认为,在某些领域(如“伏羲”的自我代码优化),人类的理解和反应速度可能成为瓶颈,应允许其一定程度的自主性。