嵌入式代理

||yabo app

假设你想要制造一个机器人来为你实现一些现实世界的目标——这个目标需要机器人自己学习,并找出许多你不知道的东西。1

这里有一个复杂的工程问题。但还有一个问题,就是要弄清楚构建这样一个学习代理到底意味着什么。如何优化物理环境中的现实目标?从广义上讲,它是如何工作的?

在本系列文章中,我将指出四种方法目前我们知道它是如何工作的,并且有四个领域的积极研究旨在弄清楚它。亚博体育官网

这是Alexei,Alexei正在播放视频游戏。

阿列克谢,二元论的代理人

就像大多数游戏一样,这款游戏也是如此清晰输入输出通道.Alexei只能通过电脑屏幕观察游戏,只能通过控制器操作游戏。

游戏可以被看作是一个函数,它接受一系列按键并在屏幕上输出一系列像素。

阿列克谢也很聪明,有能力把整个游戏都记在脑子里.如果Alexei有任何不确定性,那也只是关于经验事实,比如他在玩什么游戏,而不是关于逻辑事实,比如哪个输入(对于一个给定的确定性游戏)将产生哪个输出。这意味着阿列克谢也必须在脑子里储存他可能玩的每一场游戏。

阿列克谢但是,难道不需要考虑自己吗.他只是在优化他正在玩的游戏,而不是优化他用来思考游戏的大脑。他可能仍然会根据信息的价值选择行动,但这只是为了帮助他排除可能的游戏,而不是改变他的思维方式。

事实上,阿列克谢可以把自己当作一个不变的不可分割的原子.因为他并不存在于他所考虑的环境中,所以Alexei并不担心他是否会随着时间的推移而改变,也不担心他可能要运行的任何子程序。

请注意,我所谈到的所有属性之所以能够实现,部分原因在于Alexei与他正在优化的环境完全分离。

这是艾米。艾米在演现实生活。

嵌入式特工艾米

现实生活不像电子游戏。这种差异很大程度上是因为艾米处在她试图优化的环境中。

阿列克谢将宇宙视为一个函数,他通过选择能够带来比其他任何可能的输入更大回报的输入来优化这个函数。而艾米没有函数.她只是有一个环境,这个环境包含她。

艾美想要选择可能的最佳行动,但艾美选择哪种行动是另一个与环境有关的事实。艾米可以对环境的决定进行推理,但由于艾米最终只会采取一个行动,所以我们甚至不清楚艾米“选择”一个比其他行动更好的行动意味着什么。

阿列克谢可以探测宇宙,看看会发生什么。艾美是宇宙在戳自己。在埃米的例子中,我们如何将“选择”的概念正式化?

更糟糕的是,既然Emmy被包含在环境中,Emmy也必须被包含在环境中比环境小.这意味着艾美无法在大脑中储存精确详细的环境模型。

这会导致问题:贝叶斯推理通过从一系列可能的环境中开始工作,并且随着您遵守与这些环境不一致的事实,您将它们统治出来。当你甚至没有能够为世界作品的方式存放一个有效的假设时,你的推理是什么样的?EMMY将不得不使用不同类型的推理,并使不适合标准贝叶斯框架的更新。

因为艾美在她所掌控的环境中,她也将能够做到自我完善.但是埃米怎么能确定,当她学到更多东西,找到越来越多的方法来提高自己时,她只会以真正有用的方式改变自己?她怎么能确定自己不会以不受欢迎的方式改变最初的目标呢?

最后,由于Emmy包含在环境中,因此她不能像原子一样对待自己。她是由同样的碎片组成环境的其余部分都是由它构成的,这就是她能够思考自己的原因。

除了外部环境的危险之外,艾米还必须担心来自内部的威胁。在优化时,Emmy可能会有意或无意地将其他优化器作为子例程来启动。如果这些子系统过于亚博体育苹果app官方下载强大,并且与Emmy的目标不一致,就会导致问题。Emmy必须弄清楚如何在不扰乱智能子系统的情况下进行推理,或者以其他方式弄清楚如何让它们变得脆弱、被控制,或者完全符合她的目标。亚博体育苹果app官方下载

艾米很困惑,我们回到阿列克谢。马库斯Hutter的艾基框架为Alexei这样的代理如何工作提供了一个很好的理论模型:

$$
a_k \;:= \;\ arg \ max_ {a_k} \ sum_ {o_k r_k}%\ max_ {a_ {k + 1}} \ sum_ {x_ {k + 1}}}
\max_{a_m}\sum_{o_m r_m}
[r_k +……+ r_m]
\ hspace {-1em} \ hspace {-1em} \ hspace {-1em} \!\!\!\ sum _ {{q} \,:\,u({q},{a_1..a_m})= {O_1 R_1 .. O_M R_M}} \ hspace {-1em} \ hspace {-1em} \ hspace {-1em} \!\!\!2 ^ { - \ ell({q})}
$$

该模型具有代理商和一个使用操作,观察和奖励进行交互的环境。代理发送了一个动作\(a \),然后环境发送观察\(o \)和right \(r \)。该过程在每次重复\(k ... m \)。

每个行动都是之前所有行动-观察-奖励三元组的函数。每一个观察和奖励都是这三个元素和前一个动作的函数。

您可以想象在此框架中的代理商可以充分了解它与其交互的环境。然而,AIXI用于在对环境的不确定性下进行建模优化。AIXI在所有可能的可计算环境中具有分布\(Q \),并选择导致此分布下的高预期奖励的操作。由于它也关心未来的奖励,这可能导致探索信息的价值。

在某些假设下,我们可以证明AIXI在所有可计算环境中都做得相当好,尽管它存在不确定性。但是,尽管AIXI与之交互的环境是可计算的,但AIXI本身是不可计算的。代理是由一种不同的东西组成的,一种比环境更强大的东西。

我们称像AIXI和Alexei这样的特工为“二元论”。他们存在于他们的环境之外只设置agent-stuff和environment-stuff之间的交互作用.他们要求代理大于环境,不要倾向于建模自我参照推理,因为代理是由不同的材料组成的,而不是代理的推理

AIXI并不孤单。这些二元论的假设出现在我们当前关于理性行为的最佳理论中。

我设置AIXI作为一个陪衬,但AIXI也可以用作灵感。当我看着AIXI的时候,我觉得我真正理解了Alexei是如何工作的。我想对艾米也有这样的理解。

不幸的是,艾美令人困惑。当我谈论想要有一个“嵌入式机构”理论时,我的意思是理论上我希望理论上理解艾米工作的代理。也就是说,嵌入在其环境中的代理,因此:

  • 没有定义良好的I / O通道;
  • 小于他们的环境;
  • 能够理性认识自己,自我完善;
  • 由与环境相似的部件组成。

您不应该将这四个并发症视为分区。它们彼此非常缠绕。

例如,代理能够自我改进的原因是因为它是由部件组成的。而且,只要环境比代理足够大,它就可能包含代理的其他副本,从而破坏任何定义良好的i/o通道。

嵌入式代理子问题之间的一些关系

然而,我将利用这四个复杂的问题将嵌入式代理的主题分解为四个子问题。这些都是:决策理论嵌入式世界型号强大的代表团,子系统亚博体育苹果app官方下载对齐

决策理论都是关于嵌入式优化。

最简单的二元优化模型是\(\ mathrm {argmax} \)。\(\ mathrm {argmax} \)从奖励的操作中获取函数,并返回导致此功能下最高奖励的操作。大多数优化都可以被认为是一些变体。你有一些空间;您将这个空间的功能与一些分数,如奖励或实用程序;并且您希望选择在此功能下高度评分的输入。

但我们刚才说这意味着成为嵌入式代理的大部分是您没有功能环境。所以现在我们该怎么办?优化显然是机构的重要组成部分,但我们目前无法说明在没有制作主要类型错误的情况下甚至是什么。

决策理论中的一些主要开放问题包括:

  • 逻辑反设事实:你如何理解什么如果你采取行动b,就会发生,因为你可以证明你会采取行动吗?
  • 包含多个的环境代理人复印件,或代理人可靠的预测。
  • 逻辑updatelessness,这是关于如何结合非常好的但非常贝叶斯魏代的世界updateless决策理论更少的逻辑不确定性的贝叶斯世界。

嵌入式世界模型是关于你如何制作世界的好模型能够适应比世界小得多的代理。

这被证明是非常困难的——首先,因为这意味着真实的宇宙并不在你的假设空间中,这就破坏了许多理论保证;第二,因为这意味着我们需要进行非贝叶斯更新废墟一堆理论保证。

它还涉及到如何从内部观察者的角度构建世界模型,以及由此产生的诸如人择学等问题。嵌入式世界模型中的一些主要开放问题包括:

  • 逻辑的不确定性,这是关于如何将逻辑世界与概率世界结合起来。
  • 多层次的建模这是关于如何在不同的描述级别上拥有同一个世界的多个模型,并在它们之间很好地过渡。
  • 本体论的危机,这是当您意识到您的模型,甚至您的目标,是使用不同于现实世界的本体指定时要做的事情。

强大的代表团是关于一种特殊类型的委托 - 代理问题。您有一个初始代理,希望制作更智能的继承代理,以帮助它优化其目标。初始代理商拥有所有权力,因为它会究竟决定究竟是什么继任者代理制作。但在另一个意义上,继承代理商拥有所有权力,因为它很多,更聪明。

从初始代理的角度来看,问题是创建一个稳健而不用使用其智能的继承者。从继承代理的角度来看,问题是关于,“你如何强化地学习或尊重愚蠢,可操纵,甚至不使用正确的本体论的目标?”

有额外的问题来自Lobian障碍让你不可能一直相信比你强大的东西。

你可以在一个不断学习的代理的背景下思考这些问题,或者在一个进行重大自我完善的代理的背景下思考这些问题,或者在一个只是试图制造一个强大工具的代理的背景下思考这些问题。

强大代表团的主要开放问题包括:

  • 视频反思,它是关于如何推理和信任比你聪明得多的代理,尽管存在Löbian的信任障碍。
  • 值的学习,即,尽管初始代理愚蠢且不一致,但后续代理仍能了解初始代理的目标。
  • 易燃,这是关于初始代理商如何获取继承代理以允许(甚至有助于)修改,尽管没有乐于乐趣。

子系统亚博体育苹果app官方下载对齐是关于如何成为一个统一的代理它没有子系统和你或者其他子系统相互对抗。亚博体育苹果app官方下载

当一个代理人有一个目标,比如“拯救世界”,他可能会花大量的时间去思考一个子目标,比如“赚钱”。如果代理创建了一个只为赚钱的子代理,那么现在就会有两个具有不同目标的代理,这就会导致冲突。副代理人可能会建议看起来像他们的计划只有赚钱,但实际上是为了赚更多的钱而毁灭世界。

问题是,你不必只担心你故意搞砸的副特工。你还得担心不小心搞混了副特工。任何时候,当你在一个足够丰富的空间上执行搜索或优化时,你必须考虑空间本身进行优化。这种优化可能与外部系统试图做的优化并不完全一致,但它亚博体育苹果app官方下载是否有工具动机喜欢它的一致。

在实践中,很多优化都使用这种推卸责任的方式。你不只是找到一个解决方案;你找到了一个能够自己寻找解决方案的东西。

从理论上讲,我不知道该怎么办优化除了那些看起来像是找到一堆我不理解的东西,然后看看它是否实现了我的目标的方法。但这就是那种大多数容易造成敌对子系统的分裂。亚博体育苹果app官方下载

在子系统校准中,一个大的开放问题是如何拥有一个基本水平亚博体育苹果app官方下载的优化器,而不会启动敌对的优化器。您可以进一步分解这个问题,通过考虑结果优化器的情况有意的非故意的,以及考虑优化的受限子类,如感应

但请记住:决策理论,嵌入式世界模型,强大的委派和子系统对齐不是四个单独的问题。亚博体育苹果app官方下载它们是同一统一概念的所有不同子问题嵌入式代理


这篇文章的第2部分将进入下几天:决策理论


  1. 这是第一部分嵌入式机构系列,由亚伯兰·德姆斯基和斯科特·加拉布兰特。

你喜欢这篇文章吗?你可以享受我们的另一个yabo app 的帖子,包括: