""

澳门太阳城网站-最新注册

AI的大统一理论

A new approach unites two prevailing but often opposed strains in the hist要么y of artificial-intelligence research.


在20世纪50年代和60年代,人工智能研究人员认为自己试图揭开思想的规则。但这些规则竟然是方式更复杂的比任何人的想象。从那时起,人工智能(AI)的研究已经到了依靠,而是在概率 - 统计模式,计算机可以从大组训练数据的学习。

概率方法一直负责大部分的人工智能,如语音识别系统,或者建议电影Netflix用户系统中的最新进展。但诺亚古德曼,一个澳门太阳城最新网站的研究科学家,部门脑与认知科学,但他的实验室是计算机科学和人工智能,认为AI放弃了太多,当它放弃了规则。由老基于规则的系统与新系统的概率相结合的见解,古德曼已经发现了一种思维模型,可能有两个AI和认知科学广泛的影响。

早期的人工智能研究人员发现思想为逻辑推理:如果你知道鸟能飞,被告知,太平鸟是鸟,你可以推断出waxwings能飞。艾未未的第一个项目是一个数学语言的发展 - 就像一个计算机语言 - “ waxwings是鸟”,其中研究人员可以编码断言像“鸟都会飞”,如果语言是不够严谨,计算机算法将能够通过写在上面的断言梳理和计算所有逻辑上有效的推论。一旦他们会制定这样的语言,人工智能的研究者利用他们来编码大量的常识断言,它们存储在大型数据库的启动。

这种方法的问题是,粗略地说,不是所有的鸟都会飞。而不能飞的鸟类中,有一个在笼子里的知更鸟,用断了翅膀一只知更鸟,和任何类型的知更鸟和企鹅之间的另一个区别之间的区别。 ,早期的人工智能研究人员开发的数学语言具有足够的灵活性来表示这样的概念区分,但是写了所有的必要区分,即使是最基本的认知任务证明更难比预期的。

拥抱不确定性

在概率AI,相比之下,一台计算机被送入大量的东西例子 - 鸟类如图片 - 并且留下来推断,对自己,什么这些例子的共同点。这种方法的工作原理相当不错与像具体概念“鸟”,但它与更抽象的概念麻烦 - 例如,飞行,鸟,直升机,风筝和超级英雄共享的能力。您可以显示一个概率系统大量飞行的东西的图片,但即使想出他们都有共同的东西,那将是非常有可能误认云,或阳光,或在天线上的建筑物的顶部,实例飞行。甚至飞行是一个具体的概念相比,比方说,“语法”或“母亲”。

作为一种研究工具,古德曼已经开发了计算机编程语言,叫教堂 - 伟大的美国逻辑学家邱奇之后 - 即,像早期的人工智能语言,包括推理规则。但这些规则的概率。告知食火鸡是鸟,写在教会可能会认为食火鸡大概可以飞的程序。但是,如果该程序,然后告知,食火鸡体重将近200磅,它可能会修改其初始概率估计,得出的结论是,实际上,食火鸡大概也飞不起来。

“与概率推理,你得到所有的结构自由,”古德曼说。从未遇到过一个不会飞的鸟教堂程序可能,最初,设置任何鸟类可以在99.99%的飞行的可能性。但因为它更进一步了解食火鸡 - 和企鹅,和笼和断翅的知更鸟 - 它相应修改其概率。最终,概率代表所有早期人工智能的研究者的概念区分会用手不得不代码。但系统学习这些区别本身,随着时间的推移 - 很多人的方式学习新的理念和修改旧的。

“什么是辉煌的这个是它允许你建立一个飞驰更加简单和透明的方式以外也做一个认知模式,”尼克·遮打,在伦敦大学学院认知和决策科学教授说。 “你能想象所有的人都知道的事情,并试图列出这些也只是无尽的任务,它甚至可能是无限的任务。但魔术在说,“不,不,只是告诉我一些事情,”然后大脑 - 或在这种情况下,教会系统,希望有些类似于头脑做它的方式 - 就可以制造出来,利用其概率计算,一切后果和推论。而且,当你给系统的新信息,它可以计算出的那后果“。

建模思想

使用概率推理程序似乎能够模拟更广泛的比传统的认知模式能人的认知能力。在2008年的会议认知科学学会的,例如,古德曼和查尔斯·坎普,谁在当时BCS的博士研究生,提出这样他们会给予人类受试者的七八个员工名单在虚构的公司工作并告诉他们哪些员工发送电子邮件到别人。然后他们给受试者员工的短名单在另一个虚拟公司。没有任何额外的数据中,受试者被要求创建一个图表描绘谁在第二家公司发送电子邮件给谁。

如果样品情况下,电子邮件图案形成的链条 - 爱丽丝发送邮件给Bob谁发送的邮件颂歌,一路,比方说,亨利 - 人类受试者很可能预测,在电子邮件模式测试情况下,也将形成链。如果样品情况下,电子邮件图案形成的循环 - 爱丽丝发送邮件给Bob谁发送的邮件颂歌,等等,但亨利发送邮件给爱丽丝 - 受试者预测测试用例的循环了。

所使用概率推理程序,要求执行相同的任务,表现几乎完全一样的人类个体,推断从循环链和循环链。但传统的认知模型所预测的测试用例完全随机的电子邮件的模式:他们无法提取环和链的更高层次的概念。与一系列脑与认知科学系的合作者,古德曼已经进行中受试者被要求错误或树木的程式化图纸分类到不同的类别,或做出所需的猜测另一个人的想法推论类似的实验。在所有这些情况 - 其中有几个还提出了在认知科学学会的会议 - 教会计划做了人类的思想比传统的人工智能算法做造型的显著更好的工作。

遮打警告说,虽然教会计划在上述有针对性的工作表现良好,他们目前正在计算量太大,作为通用的头脑模拟器。 “这是一个严重的问题,如果你要轮出来在阳光下解决所有的问题,”遮打说。 “但它刚刚建成,而当他们刚刚建成,这些事情总是优化很差。”和遮打强调,让系统在所有的工作本身就是一个成就:“这是那种东西,有人可能产生的理论建议,你会觉得,“哇,这是飞驰的聪明,但我敢肯定,你永远不会让它跑了,真的。”而奇迹是,它不运行,和它的作品。”


主题: 计算机科学与技术, 计算, 概率性编程, 心理理论, 脑与认知科学

评论

似乎没有什么。

你可能会看到我最近在马德里ITTC提出了新的认知数学。这是很简单的,和精美的强大。它是一种新的TGS要比完成这一切至今更先进。我敢肯定你会喜欢,真正提高你的思考人工智能的方式。我的是不是一个奇迹,它是旧的工具组合成新的数学。

This is a really brilliant idea, and as many brilliant ideas is conceptually simple. I'm wandering if somebody suggested this approach bef要么e.

Seems like a rehash of Probabilistic Logic Netw要么ks of Goertzel et al. a few years back and implemented within OpenCog http://www.opencog.要么g/

(或王培的NARS的)

Until you MIT guys realize how simple the AI problem is, you'll never solve it.

AI is simply pattern matching. There is nothing else to it. There are no mathematics behind it, or languages, 要么 anything else.

哇。所以很显然,grep的是AI?

原谅我,如果我找你的定义有点欠缺。

Pattern matching at significant scales is anything but simple. I am sure you have a sure simple solution f要么 P = NP too.

口头禅 - 请嘲讽......请讽刺...

没有我们的概率专家系统20年前?

Input is fixated equations of Environmental elements / raw stats.

环境输入(EI)=静态

Preponderance of though of computer sequential & Parallel indeterminate by time and counter by EI.

因此,即使它看起来是认知的,事实并非如此。

Regenerative modeling and EI plus none recursion answering system. Appears to be m要么e effective. Wisdom capturing acts as an offset of what the outcome is.

Problem is, the offset makes the process sequential and thus still, "STATIC".

除非完美仍被认为是一种认知特质。

教会?你在跟我开玩笑吗?

美元短期和247年已晚...

如何教会“决定”如何重/向量的变量?

这里有一个想法:用一些有趣的GPU架构,指定每一个概念的简化符号的形状和(适用时)动画。然后运行这些比较,贝叶斯分析肯定会在什么使重或轻术语“核心图形”有效。

这是模糊逻辑的正交视图?

逻辑规则与概率相结合的方法,提议就我而言,并不是什么新鲜事。在任何情况下,这是向前迈进了一步把不确定性在哪台机器能思考的方式。但这种方法无法面对捕捉人类智力的认知方面的问题。原理概念结构(见兰盖克,talmy,拉科夫,johnsonn - 莱尔德等)负责隐喻的思想,这underlies大多数我们的常识推理的。如何应对隐喻的语言,在我看来,仍然是在方式有效AI系统的问题。

是,grep的是AI的一种原始形式。

这是很难把握的,但所有简单的事。

这是一个执行问题。什么大脑呢?它需要一个输入(比方说,一个图像),将其转换为信号,将其发送到大脑,它匹配对所存储的图像和大脑触发的响应。

做你想要做的是电子?使一个图案匹配芯片,可以对数以千计的其他图像的图像匹配同时。当有比赛,让那找到一个很好的匹配(比如说,超过90%)火信号芯片的一部分。

The thing with the brain is that it is a truly parallel machine, unlike computers.

大脑的另一个方面是,它存储体验,而不是图像或声音。体验包含图像,声音,气味,味道和大脑的自己的想法在那个特定的时刻。大脑确实在经验模式匹配,以便找到最适当的反应。

The idea that intelligence is simply probabilistic recall of knowledge is far too simplistic.

Real intelligence is smart application of knowledge and extrapolation of knowledge to new situations.

Probability folds in -- but I believe there are several more important fact要么s:

#1我该采取行动获得哪些优势呢?

#2多少精力做我花费所采取的措施?

#3我该采取行动会得到什么惩罚?

没有行动的知识是无用的。

许多输入被分流到地,因为他们不是当前的行动构成了威胁。我开始思考这个几年前,当我看到一个牛从I-95的边白鹭不是2英尺,在汽车以70英里每小时他嗖嗖几英尺远的一个水坑盯着。他一点也不在乎。汽车不是一个威胁。鸟已经想通了,由一个汽车击中的概率是值得得到的东西的是水坑。把他在另一种情况下,他可能会飞走当汽车接近。他已经学会了忽略他的余光这是毫无疑问的射击像疯了似的。

Intelligence takes context into account, extrapolation of exisiting knowledge, and feedback (the old "you learn from your mistakes").

图像处理需要考虑的“噪音”,我们都学会忽略(节省能源的大脑)。这就是为什么你“取经”,忽略你的闹钟,或火车,或对你没有威胁的一些其他的事情。也是为什么妈妈一般都是先来先醒来时,婴儿的哭声。

我还没有想出如何折叠这一切也许教会是一个组成部分,但我已经可以看到它的计算量太大 - 而我们人类(以及其他生物)尽一切努力减少我们的大脑做(一些极端什么:-)

似乎在整个争论的事实,心中已经发展了进化史上始终作为一个完整的有机体,必须与互动和生存在现实世界中的一部分,已经完全忘记了。换句话说,心中一直体现系统的一部分。如果我们不明白两者是如何关联,这将只是算法。

这就是我愿意为史蒂芬·平克或道金斯爱进来,并在工作中放下人类认知的一些雄辩的分析。这么多的理论......这么多洞他们...

隐喻语言仍然是与人类思维的问题。没有理由相信这将是可编程的。它必须通过体验式的理解,即内存进行开发。

我们需要的是模仿人的感觉和多网络,模仿人类的并行计算,有专门用于同样的原因部分子集,人类有这样认识的脑区的机器。

This takes massive resources in terms of human specialists and a collab要么ative strategy, rather than the current competitive (i.e. market) context.

它可能不会在西方是可能的,但如果人们有类似的价值观和运作的AI(图灵机)的具体目标足够合并的资源和motovation(中国)这是可以做到。

Saying it's going to be "just alg要么ithms" is not a valid objection.

它可能是任何关系的头脑/身体都可以通过算法来表达。这可能是因为大脑的各个部分合谋生产意识在这个特殊的方式组织方式仅仅是历史的偶然性的问题,并可能有其他的方式来生产意识存在的更好的设计。人的眼睛,比如工作,但我们能想到更好的设计,以更有效地 - 我们确实有光学的理论,一个什么样的好相机可能看起来像一个想法。

然而,你是完全正确的,我们还没有意识的综合理论。直到我们做什么,我们能做的就是试验各种方法,并看它是否有助于我们理解这个问题。这将是更多的试验和错误的。

有趣的文章(AI的一个有利的历史...之类的)。大部分东西已经在AI已经完成的修修补补。这仍然是公开并骄傲地宣称的图灵测试为有效度量的领域。 “我觉得我肯定会知道的情报,如果我看见了!” (听起来有点熟)?

有这评论集许多有趣的想法。尽管大多数人似乎被犯同样的错误......坊间传闻的混乱导致错误分类阶层。

模式是模式。如果一个人感到有必要建立特殊的计算模型为低级别与高级别模式,一个真正需要重新思考他们的策略和理解的基础。

模式存储,和模式匹配是计算密集的。永远会是。解决这个问题的唯一方法是有损压缩。这意味着让一些细节去和拿着别人。这意味着开发用于向显着图案的压缩高度压缩算法。这需要一个通用的显着性的发动机。这意味着通过寻找不同套图案,并且发现元图案,然后重新压缩原始图案参照总是在不断发展的元显着性图案。

一个需要记住有关情报的唯一的事情是,它是有损耗的,这有损好,这有损压缩必须在饲料低级别域特定模式成元模式压缩的越来越普遍层的层来完成。

Do this in software 要么 hardware and do it all day long as new experience bubbles up through the pattern compression hierarchy and you will have intelligence.

Does stochastic weighting have a place in this lossy compression hierarchy engine????? Sure! But it isn't the centerpiece.

澳门太阳城最新网站已经有过于自上而下(鼓捣-ERS)和过于自下而上(数学或没有)方式来解决问题的历史。法力等待着那些谁可以看到所有的系统进化和演变看为最不节能引擎是。

兰德尔reetz

你怎么能解释单词“有趣”。

Why reading about AI more interesting to me than reading about food 要么 weather?

这个想法机器对于这个问题将是一台Cray XMT。

It can have hundreds of processors all sharing a globally shared memory, with word level synchronization and remote mem要么y reference latency hiding.

"Metaph要么ical language is still a problem with Human reasoning. No reason to believe it will be programmable."

As Michael Beck says below: "Intelligence takes context into account, extrapolation of existing knowledge, and feedback."

当隐喻语言采取背景下,许多线索,其意义已经可以导出并加上现有的知识。如果这还不够,我们可以要求反馈,以澄清其含义。如果没有反馈可用,那么AI / NLP软件可以计算出最可能的解释。

"We need ... multiprocessor netw要么ks that mimic human parallel computing."

而大脑具有与其大规模并行计算的优点,可能的是,这样的优点是比由数字计算机的许多优点,比如完美存储器,几乎无限的存储器存储,计算和分析的精度,能够将偏移更多以峰值性能全天候,更有效地利用数据,更不停地工作。

都落入同样的陷阱,因为人们几十年前,当他们以为他们是在破解它的风口浪尖。适用AI很简单,是相当多的计算能力的功能。模拟人的心灵却远非如此简单和更复杂的比我们的知识包括呢。给定的时间更多地了解我们的大脑,提高计算能力,这是在一个相当可预测的速度增长。就当AI将能够模拟人类思维的估计可能是准确calculateable。

有建于上世纪80年代,基于统计修剪的搜索空间(并决定问下这问题)一些医疗诊断系统。它就像最小/最大搜索游戏空间,其中最小/最大的成本是由大统计样本,而不是,比如说,从游戏板的分析计算。

我认为,在这些系统中的弱点是一个单一的症状可以指示疾病数量巨大,并且给定的疾病可以在一堆的方式表现的症状数量巨大。和患者往往有许多重叠的疾病,病人不沟通非常好,可以很容易地导致报告几乎任何症状。

So, although at first medical diagnosis seemed like a nice simple domain at first, it turned out to be a huge ball of hair. As any doct要么 can tell you.

尤尔根·施米德赫伯给了这个问题,相当多的心思。不管你认为他的宠物神经网络工程,我想你会同意,他的“有趣”的定义是一个相当不错:

如果你期望的是,通过在关注它,你代表了少数的规则,大量信息的能力将迅速提高的很长一段时间的情况很有趣。

所以,噪音很无聊,因为发现的规则是没有希望的。稳定的音是枯燥的,因为单一的规则实在是太迅速发现。因为它看起来复杂,但认为你会来,你听明白了背后复杂的简单规则的承诺的音乐很有趣。

HTTP://www.idsia.ch/~juergen/i ...

People who think that being able to simulate the w要么kings of a brain is the goal of AI are confusing the goal with the method.

广义AI的*目标*是达到甚至超越大脑的(值得)输出给予相同的可用输入和模拟大脑工作的方式可能是最可取的办法,给予与大脑功能相关的问题。

我不认为这篇文章值得其计费为“AI的大统一理论”。没有隆重的新的洞察力,以帮助我们理解什么是“智慧”,以及是否计算机可以模拟它的意思。把数据输入的算法和看到的模式它可以识别并推断它可以得出是不是智力的模拟(无论您使用的概率或模式匹配或两者的组合。)什么是智慧,可以通过它来模拟一台电脑?这是问题的大统一理论必须回答。我不能回答这个问题,但我可以给您一个建议来定义成功。我们将acheive AI的时候,我们可以给一台计算机来解决问题,它会问我们什么是已知的问题。它会询问我们需要的数据,而不是我们,我们必须以是否有任何显著出来的另一端的数据馅了。

怎么机械是大脑。它的一个声音,或光或触摸转换为可通过生物管路(如图形卡例如)被迫电信号大量专门的硬件。实际效果是,我们必须处理输入非常快的一种非凡的天赋。其逃避天敌和寻找食物明显的进化优势。

但如何合情合理我们真的?它运行..如果电力消失了,我们没有燃气或轻或储存食物,没有交通没有通讯......如何将野生成为我们。其中,将我们的逻辑是。

可以理解在使用该软件可我们只能用近似数学/逻辑/概率大脑的感知活动,这取决于我们怎么混这些成分,我们得到不同的结果的x86架构。有时我们根据我们正在测试的硬件污点成败混合。

It could be the case that on the right hardware there is a very simple language that can quite easily describe "thinking".

我们需要更好的硬件模拟器官。

We need hardware control algorithms to simulate 要么gans behaviour and reaction.

我们需要的反馈机制。

500 Internal Server Err要么- 澳门太阳城网站-最新注册

Internal Server Err要么

The server encountered an internal error and was unable to complete your request. Either the server is overloaded or there is an err要么 in the application.

底线。没有人真正知道它是如何工作的,像“你什么时候学会”和“它的情况下,”意见也不好,因为如果你有具体的证据来支持他们,就不会有争论。

I don't see anything wrong in this article. I don't see anything wrong in the expl要么ation of techniques and the sharing of results.

回到顶部