2016年7月简报 2016年7月5日|Rob Bensinger|时事通讯 亚博体育官网研究更新 一篇新论文:谷物真理问题的形式解这篇论文是在UAI-16会议上发表的,描述了第一次将博弈论推理一般地简化为期望效用最大化。 MIRI的参与者最近总结健壮有益的人工智能系列研讨会(CSRBAI)人工智能安全环境OpenAI强化学习馆1帮助是欢迎创建更多的安全环境和在当前设置进行实验。问题可以直接问rafael.cosman@gmail.com. 一般更新 我们参加了白宫的晚宴人工智能的安全和控制研讨会. 我们的2016MIRI暑期奖学金学生计划最近已经接近尾声。该项目由应用理性中心(Center for Applied Rationality)运营,旨在培训人工智能科学家和数学家的研究和决策技能。亚博体育官网 ”你为什么不富有?: Nate Soares讨论决策理论黎明或厄运.看到“走向理想化决策理论“对于上下文。 Numerai是一家面向机器学习研究人员的匿名分布式对冲基金,亚博体育官网增加了一个选项将收益捐赠给MIRI,以“对冲人工智能领域糟糕发展的风险”。 新闻和链接 白宫是请求的信息“人工智能的安全和控制问题”等问题。公众投稿将于7月22日截止。 ”人工智能安全的具体问题:来自亚博体育官网谷歌Brain、OpenAI和学术界的研究人员提出了一个非常有前景的新的人工智能安全研究议程。这个建议在谷歌研究博客亚博体育官网和OpenAI博客,以及开放的慈善事业的博客,并得到了来自彭博,边缘,麻省理工学院技术评论. 在批判OpenAI背后的思考之后本月早些时候施密特(Eric Schmidt)支持人工智能安全研究亚博体育官网: 我们担心世界末日吗?我们相信这是值得深思的。今天的AI只在狭窄的、重复的任务中蓬勃发展,在这些任务中它需要接受许多例子的训练。但没有研究人员亚博体育官网或技术人员愿意成为好莱坞科幻小说中反乌托邦的一部分。正确的做法不是恐慌,而是开始工作。谷歌和其他许多公司一起,正在对人工智能的安全性进行严格的研究,比如如何确保人们能够做到这一点亚博体育官网中断人工智能系统亚博体育苹果app官方下载在需要的时候,以及如何使这样的系统能够抵御网络攻击。亚博体育苹果app官方下载 Dylan Hadfield-Mennell, Anca Dragan, Pieter Abbeel和Stuart Russell提出了价值对齐问题的正式定义:协同逆强化学习在这个双人游戏中,人类和机器人都“根据人类的奖励功能获得奖励,但机器人最初并不知道这是什么。”在CSRBAI的演讲中(幻灯片), Hadfield-Mennell讨论了AI修正的应用。 扬塔林带来了他的人工智能风险到原子科学家公报. 斯蒂芬·霍金参与智力爆炸(视频)。山姆·哈里斯和尼尔·德葛拉斯·泰森对此进行了辩论在更大的长度在1:22:37(音频)。 以太坊开发者Vitalik Buterin讨论了价值复杂性和脆弱性和其他人工智能安全概念cryptoeconomics。 《连线》杂志涵盖了”尼古拉斯聪明“基于芯片模拟特性的后门。 CNET为两篇文章采访了MIRI和一位人工智能科学家:人工智能,弗兰肯斯坦?专家说,别这么快”和“当好莱坞采用人工智能时,它很有趣,但有点牵强.” 下个月的有效的利他主义全球会议正在接受申请人。 这些健身房的灵感部分来自克里斯·奥拉和达里奥·阿莫代与拉斐尔的对话。↩