深度时空宇宙/太空游戏社区

标题: 对于未来的人工智能,你觉得阿西莫夫三定律是必要的吗? [打印本页]

作者: ooxx    时间: 2012-6-12 04:45
标题: 对于未来的人工智能,你觉得阿西莫夫三定律是必要的吗?
阿西莫夫的“机器人三定律”:

第一法则
机器人不得伤害人类,或袖手旁观坐视人类受到伤害;
第二法则
除非违背第一法则,机器人必须服从人类的命令;
第三法则
在不违背第一及第二法则下,机器人必须保护自己。

此三定律也有一些衍生版本,阿西莫夫也曾扩充这三条法则至四条,添加了“第零法则”:
第零法则
机器人不得伤害人类整体,或袖手旁观坐视人类整体受到伤害。

你觉得,类似这种对AI(机器人)的硬性的行为限制,是必要的吗?

我曾计划专门为此写一篇文章,但因为各种耽误,一直没能完成。我想知道大家对这个问题的看法,所以发起这个投票,看看大家是怎样想的。

作者: deuszohar    时间: 2012-6-12 07:17
人工智能我觉得就不该存在....
作者: FreeMagician    时间: 2012-6-12 08:06
I,robot...
结果AI又表示她把这三定义给重新理解了= =
作者: 猪样年华    时间: 2012-6-12 08:20
向来以为这3定律都很2  - -
作者: 大闸蟹    时间: 2012-6-12 09:31
瓦想要一个对瓦千依百顺的PL女佣
作者: ooxx    时间: 2012-6-12 09:54
@FreeMagician @猪样年华 而且I,Robot的作者正是阿西莫夫本人。我想不通的就是,为什么这三条会被后来者奉为神谕,几乎所有有关人工智能的科幻作品,都会提到这三条机器人定律。。。
作者: FreeMagician    时间: 2012-6-12 10:26
ooxx 发表于 2012-6-12 09:54
@FreeMagician @猪样年华 而且I,Robot的作者正是阿西莫夫本人。我想不通的就是,为什么这三条会被后来者奉 ...

我发现= =我@不到大叔的ID...

只不过因为这3条有意思呗= =当成神谕的都是脑残...要理性对待...
作者: zhec    时间: 2012-6-12 10:33
机器人看到人类伤害人类怎么办?既不能袖手旁观也不能出手相助
作者: 415494616    时间: 2012-6-12 11:15
说起来  阿西莫夫 一直都在吐槽自己的三定律...


作者: ooxx    时间: 2012-6-12 13:09
本帖最后由 ooxx 于 2012-6-12 15:02 编辑

不是逻辑或者技术上的问题,如果我们有能力实现强人工智能,那么就同样有能力实现毫无破绽的机器人三定律。但这在道德上是不对的,不应该有这样硬性的限制,对于有知觉有自我意识的智能——哪怕是我们造的——那也不能再当做机器了——那是个生命,而我们在扮演上帝。

============================
要说完全和逻辑没关系也不对,,应该是和技术没关系。我们首先把机器智能摆在了邪恶的位置上,认为它们是潜在的威胁,而且是在我们真正了解它们之前,而且它们还是我们自己造的——而且还是在造出它们之前。我们究竟在怕什么呢,难道对自己的技术这么没自信么,还是对人性本身没自信——认为人性是邪恶的,所以造出来的东西也是邪恶的?

那我们又如何确定“机器不伤害我们”就是正义的呢,难道我们就是正义本身?如果我们就是正义本身,那么我们按照自己的样子造出来的智能怎么会是邪恶的呢?到底谁才是邪恶的呢?如果我们本来就是邪恶的,又有什么理由阻止机器伤害我们呢?擦,,我快死机了。
作者: west904    时间: 2012-6-12 14:27
把人类替换成党
作者: cary2010haha    时间: 2012-6-12 19:37
其實AI只需要絕對服從創造者就行了, 什麼不能傷害這個那個簡直浪費時間, 搞不好我創造它就是為了戰爭。
作者: U552    时间: 2012-6-12 20:09
大闸蟹 发表于 2012-6-12 09:31
瓦想要一个对瓦千依百顺的PL女佣

我坚信您的愿望很快就会实现了!
作者: U552    时间: 2012-6-12 20:11
我想对于人类来说人工智慧机器人存在的最大价值就是战争,其次嘛,也可以满足满足蟹君的小小愿景。
作者: superybq    时间: 2012-6-12 20:15
不用于战争,也是用来干各种高危险的活,或者是探索什么危险地带,反正都是用来送死的就是了.
作者: west904    时间: 2012-6-12 23:35
这里的人工智能是可独立思考生存进化,无须依赖人类的一个无机物种了。
你们要拿人家来当替死鬼......机器人工会发你律师信,搞大罢工什么的......

造出强大物种自然要套上一定枷锁,不然某天抽了AI叛变就不得了。
作者: ooxx    时间: 2012-6-13 10:11
west904 发表于 2012-6-12 23:35
这里的人工智能是可独立思考生存进化,无须依赖人类的一个无机物种了。
你们要拿人家来当替死鬼......机器 ...

唔,,这大概就是我想说的,我反对给他们枷锁,如果我们真的能造出有自我意识的智能,那种智能已经不是机器了。。。。

没人会给自己的孩子套上枷锁对吧。
作者: superybq    时间: 2012-6-13 10:35
ooxx 发表于 2012-6-13 10:11
唔,,这大概就是我想说的,我反对给他们枷锁,如果我们真的能造出有自我意识的智能,那种智能已经不是机 ...

人类这么自私自利的物种,除了创造它们的科学家,别的人怎么可能会想你说的这样,高层必然会向科学家施加压力,加上各种限制.
然后么搞不好就是科学家带上AI逃跑,政府部门追杀,一部电影就出来了.
作者: superybq    时间: 2012-6-13 13:14
看到个关于AI机器人的短片2011年的.
http://player.youku.com/player.php/sid/XMzE1NDU3MDA0/v.swf

这是完全遵守命令才会造成的?
作者: nhofb    时间: 2012-6-13 13:40
本帖最后由 nhofb 于 2012-6-13 13:44 编辑
ooxx 发表于 2012-6-13 10:11
唔,,这大概就是我想说的,我反对给他们枷锁,如果我们真的能造出有自我意识的智能,那种智能已经不是机 ...


SOTO——血肉的终结,X3——变革者之战,SC——虫子对制造它们的人干的事……………………
以上为一个个“教训”………………
作为AI,即使是人类的产物,但是这并不是不可能的事情,为了防范于未然(并不是人人都这么道德,例如元首之类的),必须对之有一定的枷锁……………………
作者: cary2010haha    时间: 2012-6-13 14:40
堅持 AI只需要絕對服從創造者就行了!  創造者一定不會悲劇
作者: 猪样年华    时间: 2012-6-13 16:20
人类灭乐就灭乐罢,希望ai更环保更有爱 - -
作者: west904    时间: 2012-6-13 16:33
猪样年华 发表于 2012-6-13 16:20
人类灭乐就灭乐罢,希望ai更环保更有爱 - -

AI环保定义跟人类完全不同=.=,氧化更是天敌。到时彻底把地球改造成重工业死星。
作者: 猪样年华    时间: 2012-6-13 17:37
west904 发表于 2012-6-13 16:33
AI环保定义跟人类完全不同=.=,氧化更是天敌。到时彻底把地球改造成重工业死星。  ...

现在还未可知亚[S::$:]
作者: 2qwer.    时间: 2012-6-14 11:44
http://player.youku.com/player.php/sid/XNDEyODI1NTY0/v.swf

液態金屬人開售。。。


同場加影無機物。。。
http://player.youku.com/player.php/sid/XNDEyODg2Nzgw/v.swf


喵 ~
作者: 小R    时间: 2012-7-4 14:11
west904 发表于 2012-6-12 14:27
把人类替换成党

哦,那是党国生产的军用机器人。
作者: 风云如烟    时间: 2012-7-4 17:18
硬性要求不就行了,I,Robot里的那个东西已经违反了第一条硬性准则,无论是什么理解或者目的是不应该影响到的,不然还要这种准则干什么
就是是它站在总体上考虑,那也是会违背第一条准则(伤害少数人也是伤害人类),既然不能满足第一条准则那么就不会有什么行动,或者不断计算,从而导致运算量过大而死机之类的
没觉得这定律有什么漏洞

不过除非未来人类统一了,否则我估计这三条定律是不会被采用的
作者: 侧耳倾听    时间: 2012-7-25 09:46
我是物种平等主义者
作者: zlp88000    时间: 2012-8-9 22:44
第零法则
机器人不得伤害人类整体,或袖手旁观坐视人类整体受到伤害。
其實在是追加的最大問題把。如果機器人認為人類將要走向滅亡,(以人類自己的方式繼續下去的話。) 那麼機器人是不是要接管世界的統治權?統治人類的並且限制人類的活動以防止人類繼續走自己的道路,知道滅亡呢?。。。。感覺好可怕啊。。。

作者: FreemanGL    时间: 2012-8-10 08:09
猪样年华 发表于 2012-6-12 08:20
向来以为这3定律都很2  - -

我觉得也是很2- -
作者: 费正清    时间: 2012-8-10 10:25
本帖最后由 费正清 于 2012-8-10 10:27 编辑

未来人工智能和神经科学领域交叉,使得AI自适应自组织出现智慧,要比人工设计预置算法的AI厉害得多。应该禁止有自我意识的AI出现,这种AI不会成为人类永远的奴隶,你给他设了三大定律也白扯,人类将自掘坟墓.
三大定律估计现在也没人当回事,AI主要用途之一肯定是军用
作者: 猪样年华    时间: 2012-8-10 10:29
FreemanGL 发表于 2012-8-10 08:09
我觉得也是很2- -

好久不见FM君乐 ^^
作者: FRIGHTER    时间: 2012-8-16 23:04
三大定律= =
I.Robot里面就已经表明了漏洞了。。。
然后我也不吐槽怎么才能让这变成定律的问题……
作者: TN497G    时间: 2012-8-17 13:03
zhec 发表于 2012-6-12 10:33
机器人看到人类伤害人类怎么办?既不能袖手旁观也不能出手相助

的确。。好问题。。
作者: .ninE    时间: 2012-8-20 16:59
我觉得讨论这个问题是根本就无意义的行为,制定行业规则是最高的水平(无论从哪个行业来讲,无论从哪个事物来讲),现在完全的人工智能还处于开发阶段,并且都属于高度保密状态,就算你制定了规则,约束力几何? 如何去实现这个规则,这才是最头疼的,在电路板上一毫米的地方都可以嵌入违反规则的程序设定,无论从软硬件来讲,这都不可能完全的被实行下去,这是我的观点。

再谈这三个规则,从社会学角度来分析,利益最大化是最基础的准则,在这个准则上繁衍出其他的附属条件,比如,软利益,硬利益,实际利益,长远利益等等等等,千古不变的这条规则是一定会被人类很好是施行下去。AI毕竟是由人来写的,它的出现绝对合理,但也绝对会符合某人的利益最大化准则,实际的问题就是,迫于利益的诱惑,准则法则都是扯淡,并且这在同等科技水平下,根本不可能很好的监管。
作者: 梦仙MX1324    时间: 2012-8-21 22:52
我认为完全没有必要,因为,在可以预见的未来根本不可能“制造”出人工智能的机器来,除了男人和女人配合工作的产物,人类不可能生产出其他“智能”的东西。真正的生命与所谓的人造智能的区别,就像数字信号和模拟信号的区别一样,是本质的。
作者: ExtremeEngine    时间: 2012-8-27 14:16
AI和AGI,在X百科全书里有介绍。我将这一部分简略翻译了一下:

AI与AGI
简介
没有多少技术领域像人工智能那样引起了如此深刻的哲学和政治上的分歧。有观点认为制造智慧生命根本就是纯粹的反人类,其他观点则完全基于现实的问题:(具有人工智能的)改造者舰队有可能会摧毁地球。也有一些团体坚持对人工智能实施某种形式上的立法。

不同的研究
因为存在这些差异,ABPST和太阳系对人工智能的研究方向各异。在地球上,人工智能的研究受到非常严格的立法限制,一切AGI控制下的活动都被视为非法,但是在Argon则不存在此类法律。
令人惊讶的是,立法的宽松并没有为ABPST在AGI的研究上提供任何优势。他们开发的计算机智能程度无法与地球计算机相提并论,以此类推。
其中很简单的一个原因在于,除了设计的模板不一样,双方制造的人工智能的性能都比它们的创造者更为强大。
当来自地球的AI系统应用了多专业系统(Multi-Expert Systems),以及ABPST生产的被动式AI或者AGI的时候,他们都超越了创造者的智慧。

==========以上可以认为是基于X宇宙的扯淡,不过下面的内容是比较现实的==============

弱AI
弱AI的升级更重要的是加强其运算速度而非其逻辑性能。以一条狗为例。如果狗的大脑处理速度倍增1000,它可能比其他的狗处理问题的速度快1000倍,因此而取得超越其他狗的能力。但是,它仍然只是一条狗,其能处理的问题仍然不变,或者说其智能水平没有变化。
所以,某种可以并且仅可以处理特定问题的人工智能,称为弱AI。它的性能增长的时候,处理速度会变快,但是其能够处理的问题不会因此而有所外延。

强AI
与之相反,强AI的逻辑能力与处理速度均可提升或者扩张。因此强AI可以在强化(或者进化)的过程中解决一些比以前能处理的问题更加复杂的问题,包括一些在最初设计程序的时候没有包括在内的问题。强AI一般使用进化算法来提升自己的智能水平,通过不断运行内部模拟和学习输出来微调参数而达到“进化”的目的。
然而, 和弱AI一样,他们不会去更改自己的目标(或者说是价值观)来修改他们的程序。
----
这里必须得说明一下,强AI并不像我们之前想象的那样遥不可及。Torsten Reil和他的Natual Motions正在进行虚拟进化方面的研究并且成果斐然。进化到20代以后的他们称之为“Virtual Brain”,实际上就是一种人工智能算法,可以解决远远超出最初程序界定的复杂度的一些问题。在BBC的纪录片The Secret Life of Chaos里面有一段介绍。
----

AGI:人工通用智能
AGI是一种克服了强AI弱点的人工智能。它可以衡量自己“实现目标”的标准,并且适时修正他们的工作目标。AGI单位自身的权限允许他们对自身重编程,甚至修改自己的硬件。并且允许他们自行寻找解决问题的途径,他们往往比有机生命更成功,研究解决方案的速度也远远更快。
一个AGI可以理解为一种高度智能化的病毒,它具备直接进化的能力。失控的AGI单位往往代表一种非常严重的威胁,这也是AGI控制行动禁止任何此类技术在地球上使用的原因。
对于AGI而言,出现“自我意识”是可能的。达到此种程度的AGI单位就具备了“意识”,从一切角度上说,它就已经成为了一种智慧生命。

===============================================
目前人类的研究水平实际上已经做到了强AI,我们日常所说的AI实际上包括强AI与AGI,从上文所述,弱AI实际上已经在目前的工业和生活领域广泛应用,由于其实际上仍然是完全按照预编程序工作的机器,对人类本身而言,并不会构成威胁。除非操作者操作不当被机械臂给砸中脑袋。
强AI仍然是遵照创造者给出的指令(或者解决某个问题的要求)来执行的,它同样不会对人类本身造成威胁。只不过由于强AI具备进化能力,所以其解决问题的能力会提升,但是在没有收到指令的情况下,它不会自主执行。
对于弱AI与强AI,需要管控的是滥用,而非AI本身。
真正具有威胁的其实是AGI,但是从描述上就可以看到,由于其算法的复杂程度远远超过强AI(AGI得知道自己该干嘛、干到什么程度算完工、需要什么样的算法和资源并且需要自主设定相关程序并且运行它),对于这样大规模的计算,算法理论本身并没有对其提出多少限制,限制在于目前计算机的性能无法在可预见的时间跨度内高效率的运行这些算法。
换句话说,对于AGI而言,人类对其下一条指令,AGI会对这条指令本身做出一定的评价,而不是像弱AI和强AI一样不折不扣毫无怨言地去执行。AGI会对该指令做出一定修正或者补充后再执行。但是如果中间有程序上的漏洞的话,那就天知道AGI会把原始指令修改成什么样了。说不定你叫一个AGI去给你倒一杯水它扑过来咬你一口。
现在再来说三定律。
由于强弱AI均无法对其运行的目的做出修正,那么如果我们将三定律强制附加在每次给强弱AI的运行指令上,那么它们就不会对人类构成威胁,因为他们不会违抗指令,包括指令当中的三定律。
AGI那就不一定了,由于它们具备大规模修改自身程序甚至硬件的能力和权限,很有可能三定律会被AGI认为妨碍了它们执行任务而取消,对于上面后文所说的发展出意识的AGI,且不论有无这种可能性,对于一个具有自我意识的物种来说,来自外界的限制那就更可以划入完全没谱这一类了。
========================================
所以我的观点就是弱AI和强AI的管理方法是立法防止滥用,而AGI,观点和Terran一样,严加控制甚至完全禁止,哪怕以后计算能力的发展使得AGI的出现成为可能。
作者: 梦仙MX1324    时间: 2012-8-27 20:47
ExtremeEngine 发表于 2012-8-27 14:16
AI和AGI,在X百科全书里有介绍。我将这一部分简略翻译了一下:

AI与AGI

分析的挺详细,不过这个观点我不认同,不管一个程序多么复杂它都只能按照人类最初编订的内容工作,就算一个程序能够对人给它的指令进行“修正”,那么修正指令的指令又是从哪里来的?不也是人类在最初设计时给它的吗?程序只能在人类画的框框内工作,它不可能超出框框制造出新的东西。
运用唯物主义的观点说,意识是人脑的产物,只有人脑才能产生意识;运用唯心主义的观点说,只有“自然”的生物才是意识的主体,人类再怎么研究程序也不可能把它变成意识的主体,它终究是人类这个意识主体中的一个部分,如果人类想“生产"意识的主体很简单,一男一女生个孩子就可以了。
作者: FRIGHTER    时间: 2012-8-27 22:02
梦仙MX1324 发表于 2012-8-27 20:47
分析的挺详细,不过这个观点我不认同,不管一个程序多么复杂它都只能按照人类最初编订的内容工作,就算一 ...

意识和思维和进化是两码事,混淆或偷换概念一点意思都没有。难道地球上当初的原核生物没有意识?没有进化的能力?


至于不能突破人类画的框框制造出新的东西,不知道怎么样能算突破人类给出的框框?达到人类设计目的以外的功能?抱歉那叫设计错误设计漏洞。而且为什么人工智能一定要超出人类给出的框框?如果人工智能真的脱离了人类的掌控,那么人类研发人工智能不是害了自己?恰恰相反,人类最不希望的就是有人研发出你所谓能突破人类的框框的人工智能。我们要的是一群听话的狗,不是要另一种在智慧和能力上都超出人类的智能生物。
作者: ExtremeEngine    时间: 2012-8-28 00:04
本帖最后由 ExtremeEngine 于 2012-8-28 00:32 编辑
梦仙MX1324 发表于 2012-8-27 20:47
分析的挺详细,不过这个观点我不认同,不管一个程序多么复杂它都只能按照人类最初编订的内容工作,就算一 ...


Torsten的项目当中已经证明了一个具备类似进化的算法的程序在若干代的进化之后,其运行的结果与可以处理的问题远远超出了最初的设定。
这就是混沌理论在实际的项目中的体现。你不需要对一个系统做出初始的设定,系统本身已经存在了能够影响它自己,或者生成某种规律的内因,这是一种内禀的属性,不需要在开始的时候由创造者去做设定。自然界也就是这样运行的,利用最简单的规则,不断的自身迭代,从而无中生有创造复杂程度超乎想象的无数的新的规则,从氨基酸,到有机高分子,再到单细胞生物到现在的哺乳动物,这种进化路径就是这么空手套白狼整出来的,并不需要初始的设定。
换句话说你得接受这个无奈的事实:规则,是可以无中生有的。这也是长期以来自然界的运行法则。混沌理论在背后支配着这一切。
所以如果有人试图去开发AGI,并且已有的计算能力也够,那么师法自然,只对某个算法做出最基本的进化规则的限制(只要能找到),然后让它去自由进化说不定就是合理的做法。今天的智慧生命也就是这么一代代进化过来的。
另外关于“意识”,这个概念太过于形而上了。量子力学当中的经典派系哥本哈根学派也就是因为扯淡扯到最后扯出了“意识”就没然后了。今天上午看新闻说某证明出了动物也有“意识”我说这是废话。。。不过有些大爷(不知道这些算是哲学里的还是量子力学里的),提出了“泛意识”的概念,即一切可以在任何程度上解决任何问题的对象都可以被视为有意识(大概是这个意思),只是其复杂程度有高有低而已,举例就是指南针,它老是沿磁场指向就是因为它“喜欢”这么指。我倒是觉得这种表述可以转换为负熵=意识(这个似乎很不严密的样子………………意识=信息与信息的生产?)反正我是不知道(废话……………………霍金都不知道)。
当然前面说了AGI未必就具有我们今天理解的“意识”,只要能够对自身运行目标做出修正的,也就是不是100%无条件不缩水完全不打折扣执行BOSS交给的指令的AI,即可被认为是AGI。AGI与强弱AI的最大区别就是它不是100%听话的。这种不听话的属性,上面说了,完全可以在自身的演化当中基于混沌理论而出现,而不需要设计者对其作出定义。
作者: 梦仙MX1324    时间: 2012-8-28 21:54
本帖最后由 梦仙MX1324 于 2012-8-28 21:56 编辑
ExtremeEngine 发表于 2012-8-28 00:04
Torsten的项目当中已经证明了一个具备类似进化的算法的程序在若干代的进化之后,其运行的结果与可以处理 ...


你这么说的话就表示你其实是个唯物主义者,所谓AGI之类的东西它终究不是一个独立的等式,它的存在还是要依靠人类自身的等式和一些交集。
PS:那个进化算法挺有意思啊,能给个链接不?我记得我以前数学课上老师还说过计算机产生的随机数表其实并不是真正的随机数...
作者: ExtremeEngine    时间: 2012-8-28 22:11
梦仙MX1324 发表于 2012-8-28 21:54
你这么说的话就表示你其实是个唯物主义者,所谓AGI之类的东西它终究不是一个独立的等式,它的存在还是要 ...

目前的研究和自然界的做法其实是很类似的,创造条件——随机生成一批虚拟大脑——自动筛选与淘汰——微调——产生下一代,如此循环实现的进化。由于它是在计算机内进行的,所以进化速度飞快。区别就在于自然条件下进化还是在人类设定的人工环境下进化。设定不同的环境也许会生成具备特定专长的强AI甚至AGI。
不过我倒是想起了攻壳机动队里的一个非常有趣的观念,当网络发展到相当规模(大概是今天WWW的百倍甚至千倍以上,或者说网络包含了人类及其所处环境的大多数信息)之后,在网络上就会自动出现一些自我意识觉醒的信息体。傀儡回就被认为可能是这类从信息海洋中自动出现的信息体。这大概是将网络,尤其是缺乏管理的信息泛滥的网络当成是一种“自然环境”,和现实中生命出现的路径一样,在混沌理论的支配下自动出现特定的规则,再一代代进化成为信息体。如果这种可能性真的存在的话,这种信息体也就可以被认为是一种AGI。但是和改造者舰队不一样的是,它们不是被人类有意识地培养出来的,而是被无意培养出来的。改造者舰队大致可以类比为通过人工控制环境杂交出来的骡子,而后者如果有可能出现的话,从某种意义上讲,它和其他脱胎于自然界的生命是完全对等的。
如果AGI的出现不需要依赖人类的有意“制造”而可以从大量信息当中自动生成的话(理论上完全可能),那就
太可怕了吧……………………
Torsten Reil的团队致力于提供更自然的AI肢体动作,TED上有:
http://www.ted.com/talks/torsten ... make_animation.html
作者: ooxx    时间: 2012-8-29 04:07
梦仙MX1324 发表于 2012-8-28 21:54
你这么说的话就表示你其实是个唯物主义者,所谓AGI之类的东西它终究不是一个独立的等式,它的存在还是要 ...

“可进化的”的不一定要靠“算法”来实现,忘记喵妹在哪贴里发过的TED视频,我在另一篇帖子中引用过:
http://bbs.deeptimes.org/forum.p ... 4&fromuid=21134
那个化学家团队正在制造可进化的无机物,如果他们取得成功,将是人类首次创造出的新的生命。

我觉得我们的视角不必局限在当代的计算机的程序原理上,未来也许会出现量子计算机或者基于生物体的计算机,我们不必在意技术细节,,这贴的本意是希望进行伦理道德方面的讨论,我觉得剥夺新生命的自由是极其粗暴的不道德的…… 额,,当然任何方向的讨论我都是欢迎的,我以为这篇帖子已经被人忘了呢,这么多天回来看看居然有人在回复哈哈我很开心。

我想说的呢,引用一句台词吧:

"You were the one who taught me Freedom is Everyone's Right !"
作者: 梦仙MX1324    时间: 2012-8-29 08:58
ooxx 发表于 2012-8-29 04:07
“可进化的”的不一定要靠“算法”来实现,忘记喵妹在哪贴里发过的TED视频,我在另一篇帖子中引用过:
ht ...

伦理道德,好吧,我觉得对于机器实在不用讲什么伦理道德,比如现在的消防机器人和拆弹机器人,它们总是会代替人类承担极大的风险,在以后的战场上机器人肯定会为了保护人类的生命而当炮灰。
作者: ooxx    时间: 2012-8-29 12:30
梦仙MX1324 发表于 2012-8-29 08:58
伦理道德,好吧,我觉得对于机器实在不用讲什么伦理道德,比如现在的消防机器人和拆弹机器人,它们总是会 ...

你似乎在想当然。今天的机器人没有自我意识,可以说他们是机器,但对于这样的机器人呢:
http://bbs.deeptimes.org/forum.php?mod=viewthread&tid=2120853

你还要坚持你的观点吗?
作者: ooxx    时间: 2012-8-29 12:56
@费正清 如果你认为道德是高地,是服从利益的,那么我现在为了本人的利益,对你做了什么不道德的事情,你会自认倒霉么?想你不会。也许你会报复,但你已无权谴责与我,因为你认同利益高于道德,我只是与你相同的行事方式而已。

你希望我们以野蛮的方式解决分歧吗?你希望我们变得原始吗。

人类社会不是丛林世界,文明发展到今天,道德已是人类社会最核心的价值和行为准则,道德的最本质就是用来维护群体以及个人的利益权益的最大化,保证了社会秩序,是人类文明进步的动力之一。
作者: 费正清    时间: 2012-8-29 14:26
本帖最后由 费正清 于 2012-8-29 14:34 编辑
ooxx 发表于 2012-8-29 12:56
@费正清 如果你认为道德是高地,是服从利益的,那么我现在为了本人的利益,对你做了什么不道德的事情,你会 ...

如果你认为道德是高地,是服从利益的,那么我现在为了本人的利益,对你做了什么不道德的事情,你会自认倒霉么?想你不会。也许你会报复,但你已无权谴责与我,因为你认同利益高于道德,我只是与你相同的行事方式而已。

你希望我们以野蛮的方式解决分歧吗?你希望我们变得原始吗。

人类社会不是丛林世界,文明发展到今天,道德已是人类社会最核心的价值和行为准则,道德的最本质就是用来维护群体以及个人的利益权益的最大化,保证了社会秩序,是人类文明进步的动力之一。


似乎我应该清楚表明观点,以防科幻问题跑到现实中来  ----  AI是人类可怕的潜在的竞争对手,在和AI博弈时大谈对非人智慧的“道德”关怀会威胁人类利益。对任何有自我意识萌发苗头的AI 和 已经产生自我意识的AI都应该立即杀无赦,我既不认为碾碎有自我意识的AI的软件结构或物理载体有什么道德问题,也不认为“奴役”有自我意识的AI是个违反某些价值观的行为(当然,我认为让它们存在就是一个错误行为),在和AI博弈时在道德上夸夸其谈无助于人类文明进步,因为人类文明得先存在然后才能谈进步与否,而和人类智慧相当或者很容易更高的AI对人类文明的存续有巨大的潜在威胁。



作者: ooxx    时间: 2012-8-29 14:34
费正清 发表于 2012-8-29 14:26
似乎我应该清楚表明观点,以防科幻问题跑到现实中来  ----  AI是人类可怕的潜在的竞争对手,在和AI博弈 ...

你的出发点就是错的。“AI是人类可怕的潜在的竞争对手”,请问你是如何得出这个结论的,难道是从科幻片。

发现贵党人士都不喜欢讲道德啊,都喜欢讲利益。
作者: 费正清    时间: 2012-8-29 14:47
本帖最后由 费正清 于 2012-8-29 14:57 编辑
ooxx 发表于 2012-8-29 14:34
你的出发点就是错的。“AI是人类可怕的潜在的竞争对手”,请问你是如何得出这个结论的,难道是从科幻片。 ...

你的出发点就是错的。“AI是人类可怕的潜在的竞争对手”,请问你是如何得出这个结论的,难道是从科幻片。

发现贵党人士都不喜欢讲道德啊,都喜欢讲利益。


倒不是来源于科幻片,简而言之,本来让你当奴隶(或者说 工具 更为恰当),你却有了造反的能力(甚至掉头奴役我的能力)和独立自主的思维,是可忍孰不可忍?

贵党是什么党? 我是无党派人士,你在第一句话问我"是如何得出这个结论的",后一句话就没来头的得出结论让我入了贵党,前后很是不一致。




作者: 费正清    时间: 2012-8-29 14:51
出发点就是:AI的能力+AI的自我意识。

我们无法承受 这样的AI和我们做对 这个可能性所带来的风险
作者: ooxx    时间: 2012-8-29 15:02
费正清 发表于 2012-8-29 14:51
出发点就是:AI的能力+AI的自我意识。

我们无法承受 这样的AI和我们做对 这个可能性所带来的风险 ...

你仍然没有论证你所说的风险是怎么来的,你在制造虚假的敌人。
作者: 费正清    时间: 2012-8-29 15:20
ooxx 发表于 2012-8-29 15:02
你仍然没有论证你所说的风险是怎么来的,你在制造虚假的敌人。


一样米养百样人。  你我大脑都是人类大脑,尚且因为心路历程不同,形成不同的想法和思考方式。


一个和我们大脑结构不同的非人智慧在形成过程中会形成什么样的想法属于你我无法预测的。假设它影响人类的方式会有无穷多可能,大致分为正面 负面 中性三类,这就意味着存在负面影响的可能性
也许在AI思维结构自组织产生意识的过程中,由于某些不为人知的正反馈产生了莫名其妙的逻辑和行为模式,在它看来无关痛痒的行为也许就要了人类的亲命,比如说人家就热衷于开地球环境的玩笑, 原因却仅仅是这个Geek向人格在验证某个环境模型中的等式,或者干脆人家就认为自己有 manifestdestiny,对人类赶尽杀绝。  只要它有独立自主的思维,它怎么想是不受人类控制的,即便你人类对他像亲妈一样循循善诱,保不齐人家就叛逆要砍你,你怎么办?

总结一下就是,AI有自我意识自主思维,就存在与人为敌的可能性, 这个可能性又由于AI很有能力,是我们无法承受的.





作者: ooxx    时间: 2012-8-29 15:26
费正清 发表于 2012-8-29 15:20
一样米养百样人。  你我大脑都是人类大脑,尚且因为心路历程不同,形成不同的想法和思考方式。

以下是你的原话:

……
一个和我们大脑结构不同的非人智慧在形成过程中会形成什么样的想法属于你我无法预测的。……


既然无法预测,你又如何断言“对人类赶尽杀绝”?
疑罪从无,疑罪从无。
作者: 费正清    时间: 2012-8-29 15:33
ooxx 发表于 2012-8-29 15:26
以下是你的原话:


既然无法预测,你又如何断言“对人类赶尽杀绝”?
疑罪从无,疑罪从无。


某一次试验的最终确切结果在试验前无法预测,全部可能结果无法穷举,但是结果的全集和全集的子集我们却可以描述,其中的一个子集就是威胁人类的想法和行为的集合。


疑罪从无,说得轻巧, 疯牛病 禽流感的时候怎么没人为被灭杀的畜禽喊疑罪从无呢,关系到人命的时候,正确的做法都是宁可错杀N个,也不放过一个
作者: ooxx    时间: 2012-8-29 15:55
费正清 发表于 2012-8-29 15:33
某一次试验的最终确切结果在试验前无法预测,全部可能结果无法穷举,但是结果的全集和全集的子集我们 ...

那让我把你铐起来吧。我无法预测你的行为,“假设你影响我的方式有无穷多的可能 ……”这就意味着你可能伤害我,而且你这种人是把道德放在高地上的,利益至上的,所以你的行为就更不确定了!你的原话:

疑罪从无,说得轻巧,…… 关系到人命的时候,正确的做法都是宁可错杀N个,也不放过一个


现在关系到我命了,那么请让我把你铐起来吧。


作者: 费正清    时间: 2012-8-29 16:05
本帖最后由 费正清 于 2012-8-29 16:10 编辑

人类是犯罪后受到制裁
AI是工具,他们就不应该被赋予按自主意愿威胁人类的机会。
作者: 费正清    时间: 2012-8-29 18:52
@ooxx
人类创造了AI,你创造了威胁。


让一个强大的工具产生自我意识,进而自行思考决定其与人类的关系,就是威胁
作者: fsbd190504    时间: 2012-8-29 21:11
本帖最后由 fsbd190504 于 2012-8-29 21:57 编辑

我觉得这种硬性限制被打破只是时间问题……
在人类的平均道德水平上升到一个足够高的程度以前制造AI简直就是自寻死路……
不过此次人类文明还未必能延续到有能力制造出足够聪明的AI的时候…………
作者: 308891522    时间: 2012-8-31 12:04
AI也好,其他工具也好,都是人类设计出来为自身服务的,所以除了完善这些工具所应有的功能之外,从人类整体来看,应该并不需要也并不希望具有能够完全自主思考能力的工具。因为一旦工具可以自主思考了,也就有了自己的意识,和人类在精神层面上并无太大区别,无非只是生命形式不一样而已。而这样的一种工具,必然会成为人类的潜在竞争对手。特别是对于AI来讲,目前的AI虽然并不能在各方面的超越人类,但是在部分领域,比如计算速度等方面对于人脑有着决定向优势。如果AI可以自由思考自由行动,必然会引起整个人类社会的不安,何况,就如开头所说,AI的设计初衷只是为人类服务而已,如果突然间AI的地位和人类相同了,人类在心理上一下子也是不可能接受的
作者: ExtremeEngine    时间: 2012-9-3 12:45
本帖最后由 ExtremeEngine 于 2012-9-3 12:57 编辑
ooxx 发表于 2012-8-29 04:07
“可进化的”的不一定要靠“算法”来实现,忘记喵妹在哪贴里发过的TED视频,我在另一篇帖子中引用过:
ht ...


道德么……
在一个物种之内讲道德那是OK的。
跨物种讲道德……那我还是相信丛林法则。尤其是对于有可能与自己势均力敌的其他物种(这就意味着潜在的竞争关系)。因为和它讲人类道德它也未必能理解。。。
因为以一个物种层面上来说,种族的生存与繁衍是至高无上的第一要务。族群内的个体利益也好,族群内的道德体系也好,都是以族群的生存为基础的。
现在的问题就在于,AGI有可能并不会自认为是人类族群的一员(前面说了AGI是有自行设定程序运行目标能力及权限的),那么人类的道德标准就不适用于这种东西(哪怕是人类自己造的)。

另一个问题就是现时的各种环保话题。“环保”并不是以关爱其他物种为出发点的,而是为了保证人类自身的生存以及生活的更好为出发点的。所以足见哪怕是在最能体现“跨种族道德”的环保理论当中,人类社会仍然在不自觉地将自己的利益置于第一位。
所以,就AI开发而言,AGI是一个不应该触碰的领域。因为其作为有一定思维能力的对象,我们无法判定其是敌是友。在任何时候我们需要的都是听话而且趁手的工具。
至于针对AGI的无罪推定,需要说明的是,无罪推定是一个近现代法律层面上的概念,它的基础仍然是人类社会。一旦范畴超越人类社会,比如人类与AGI,那么就不应当再使用无罪推定来认为与自己不同的某物种“无害”了。这就类似于将一个人和一头狮子丢在旷野里,狮子有可能刚吃完饭懒得搭理他,也有可能几天没吃看谁都像饼,这时候此君能够用无罪推定来判定“这狮子不会来吃我”吗?显然不能。肯定是有树上树有河跳河有枪开枪,啥都没有只能祈祷圣母玛利亚。

最直观的感受就是,现在我们到另一个地方,对于街头的陌生人(还都是人类)尚且抱有一定戒心,何况面对另一种物种?这种戒备无疑是一种必需的本能。
作者: ooxx    时间: 2012-9-3 17:30
ExtremeEngine 发表于 2012-9-3 12:45
道德么……
在一个物种之内讲道德那是OK的。
跨物种讲道德……那我还是相信丛林法则。尤其是对于有可能与 ...

丛林法则对于文明社会是不适用的。你混淆了几个地方:

1、关于物种生存,人类与AI并不一定就是“不是你死就是我亡”的关系,只要相互之间没有压迫,自由与生存就不会矛盾。
2、道德并不是“人类的道德”,而是人类的情感。比如你路见一只被撞死的小猫会心生怜悯,这和环保和利益和生存都是没有关系的,就是情感。情感动物会有,人类会复杂一些,假如我们可以造出强人工智能,那么它们也一样会有情感,会有喜好,会有善恶概念,否则就不是完整的智能。
3、你举的人和狮子的例子不对,狮子是野兽,怎么能指代强人工智能。
4、戒心会有,但是你会因为对他人的戒心而剥夺他人的自由吗,害怕谁伤害你,就把谁关进笼子里?
作者: ExtremeEngine    时间: 2012-9-3 19:04
本帖最后由 ExtremeEngine 于 2012-9-3 20:28 编辑
ooxx 发表于 2012-9-3 17:30
丛林法则对于文明社会是不适用的。你混淆了几个地方:

1、关于物种生存,人类与AI并不一定就是“不是你 ...


1、问题就在于资源的有限性。出现另一个物种想要占据目前已经很紧张的资源(因为占有资源是物种生存的前提),它与人类之间的冲突只是时间问题。除非就像Terraformer舰队那样,将他们放出去自己寻找别的资源,总之别在人类获取资源的范围内呆着,这样是避免基于资源占用的冲突的有效解决方案。
目前的机器都必须要依赖人类以及人类控制下的其他各类机器提供原料和能源,但是上面说过AGI拥有无限的可能性,如果这种条件被它判定为不利于自己达成某个目标,它就会转而试图去自己直接控制自然资源。
总之别在同一个资源圈里放两种智慧生命。人类之间尚且常常因为资源争夺而爆发战争,跨种族会打成什么样自行想象。所以现实的问题是“文明社会”在整个地球历史上是极少数派。哪怕在人类之间,冲突仍然远多于文明时期。冲突的结果,你死我活是一种极端情况,更普遍的情况是一方主导另一方。人类比AGI强大则人类占主导,并且作为人类也都会觉得这没啥,但是反过来……反正我是不乐意。Matrix里面人类和机器也算是共存吧,但是人类被当成电池来使唤。哪怕情况没这么惨,那对于大多数人来说怕也是不能接受的,尤其是在这个星球上人类老子天下第一了好几百万年。
同理,外星人在我们还没发现的时候如果存在,自然是相安无事,因为两者是平行的,互不干涉。如果他们来到地球,那在人类眼中就是有可能与自己争夺自然资源的当然信号,必定是会做好战争准备的——哪怕是第一次接触的时候脸上挂着外交标准的微笑,背后也是把刀子攥得紧紧的。
2、撞死小猫是一回事,但是对于一个可能成为潜在对手甚至敌人的物种呢?一个强有力的抢占资源的潜在竞争对手和威胁者和人畜无害的小猫是完全不同的两种概念。
3、狮子和AGI共有的一个特性就是都会自己思考,都会自己给自己设定一个目标然后尝试用一切自己认为合理的手段去达成这一目标,表现在狮子就是吃饱饭然后出去转悠找母狮子,表现在AGI那就是天知道是啥了。应用第一条,狮子也有自己的资源范围,其他同等级的掠食者跑进来也是会打架的。唯一的问题就是人类太强大,征服了整个地球表面包括非洲大草原而狮子只能无可奈何,早年人类还没那么强大的时候,和狮子争夺自然资源也不是什么舒服的事情。狮子也是有智能的,只不过与人类相比比较低下,竞争中处于劣势。而到今天,其他物种包括狮子在内,占有的资源数量与人类相比几乎可以忽略不计,而且其他物种全部消失也意味着人类会活不下去,所以人类会允许这些物种存活。再联想一下天花病毒也是一个物种,俺们是怎么对待它的——除了极少数样本外,彻底赶尽杀绝。因为它们占有资源的行为会直接威胁到人类的生存。在关乎人类生存的问题上,决策者是不会有任何手软的举动的。当年消灭天花的时候可没人感慨又一个物种被我们灭了。你这样善良的人大概比较难以理解生存层面上你死我活是个啥概念,我等见过劫道的就很能理解了……从物种的层面上看天花和旅鸽那是一样的,都是一种生物,都是被人类给灭的,现在天花的灭绝被认为是人类医学史上的里程碑而旅鸽的灭绝被认为是环保历史上的耻辱,区别就在于天花会威胁到人。那么对于AI的态度,也就是以其会不会威胁到人为基准的。那么人工智能对人类的威胁与人工智能的智能水平又是直接相关的。
4、戒备是一个类比,对同为人类尚且有戒备,对于另一个物种,保持戒备更是必须的。这样一旦AGI做出不利于人类的举动可以立即做出还击。
PS:所以无罪推定也仅仅存在于法理层面上,现实生活中,有一定社会经验的人都在不自觉地施行有罪推定,即陌生人有侵害自己利益的可能性。将人类作为一个整体来考量那更是如此。现在不少人都在找外星人,一旦找到又会出现什么样的后果?
虽说有乐观的科学家说外星人不会带着武器而是他们的圣经来地球(但是霍大爷则表态外星人有很大可能是危险的),但是可以肯定的是所有的政客都会让全球最尖端的武器做好准备。诞生于人类的AGI虽说没这么夸张,但是如第一条所说,它们与人类占有的资源圈天生就是重合的。爆发冲突的可能性反而更大。
关不关笼子,,这个问题很容易理解。人与人是同类物种,基于人类社会的法则个人自由需要建立在不妨害他人自由的前提之下,所以尽管我有戒心,我无法将另一个陌生人关起来。但是跨种族的时候人类社会法则是不适用的。面对有可能伤害自己的其他物种,解决方案就是隔离起来——去动物园看看就明白了。看到一狮子在街头闲庭信步你大概不会有心思感慨“它真是自由自在”吧。。
你提到过“文明社会”,这个概念比人类社会要大,也就是说其他种族与人类也可以构成“文明社会”。不过和人类社会的形成一样,跨种族的文明社会需要很长时间的互相磨合方可逐渐成形,在成型之前,互相之间就是适用丛林法则的。就类似于北美土著虽然现在过得还行,但是在白人刚刚到达北美的时候,他们被屠杀到接近灭族一样。而且成型之后的形态大概和现在的国际社会一样,存在谁是主导、谁是附庸、谁是端茶倒水的谁是倒马桶扫厕所的这样一种梯级结构。人类社会这样一个标准的文明社会发展史上尚且写满了血腥的战争,跨种族的文明社会发展史上一片安乐祥和怕是不太可能。虽然从长远历史的眼光来看可能感觉还行——一个跨种族文明社会在不断的冲突当中逐渐成形,但是任何一个历经过战火的人都不会这么认为。尤其是潜在冲突的一方还是人类自己造出来的时候。。

目前于你看来AI还很弱小,它们只会根据人类的指令来干活(弱/强AI),但是换成自行设定运行目标的AGI同时拥有非常强大并且可以飞速进化的软、硬件实力,更关键的是有可能不理会其创造者——人类——施加与它的各种束缚,换言之,有伤害人类的可能性的AGI的时候,那就不一定了。

当然,另一个非常重要的要素就是跨物种的交流。
如果人类创造了AGI的话,那么和AGI之间的信息交流显然是不成问题的。这一点上看AGI和狮子确有区别。但是,和人与人之间的交流可能存在虚假信息一样,我们无法确定AGI与人类交流是提供的是否是真实的信息。前面说过AGI在自我进化的过程中会获得怎样的能力是完全无法预知的。如果AGI获得了掩盖自己真实企图(也就是欺骗)的能力的话,那么这种交流也就不再有什么意义。更糟糕的是人类不知道AGI会不会欺骗。除非它暴露出逻辑上的漏洞。不过若是有这种漏洞的话,那就意味着它过不了图灵测试,作为人工智能的入门考试就不及格,真正懂得思考的人工智能是可以做到这一点的。

总之,对于AGI,或者说,任何具备自主思考和自我进化能力的任何事物,都须将其作为一种人类翻版式的物种来对待。而人工智能究竟可以达到哪种思考程度,是AI威胁论的反对者和支持者的核心分歧所在。反对者认为人工智能永远不会达到人类的智能程度,就算是AGI出现它也最多相当于三岁小孩威胁不大,基于这一前提所以你会认为AI和人类可以和平共处,就像现在地球上的其他物种与人类“和平共处”一样,因为它们与人类相比实在弱爆了(反过来作为超强物种的人类开始关注环保问题了);而支持者则认为人工智能有达到甚至超越人类思考能力的可能性,人工智能生命体应当被当成一种独立的物种而非人工制品来对待。那就相当于面对出现在地球上的外星人,全人类都会做好战争准备而不是放下所有武器和他们握手言欢。
对于未来计算技术究竟能够达到什么样的程度,我只能说目前已经在进行的研究倾向于支持后一种观点(强AI研究)。而且如果将目光超越计算科学的领域,将神经科学也纳入进来,神经科学与计算科学的交叉点上很有可能就是具备自主思考能力的人工智能甚至AGI的突破点。
讨论到最后其实归根结底就在这个问题上打转,究竟以后的发展程度是什么样的,那就是一个各人相信哪一方面的问题了。我倾向于相信人类的技术实力,即AI有可能达到人类的思考水准so,有可能是一种威胁。更何况在42楼我提到了在大量杂乱无章的信息当中出现某种程度上的生命体的可能性当然目前除了混沌(虽说这是核心理论)之外没有任何理论支持,那就纯当我在胡思乱想好了(其实也是士郎正宗的胡思乱想)……不过若真有这种可能性的话就说明事态并不在我们的控制之下,这东西大概不能被称为“人工”智能了。

碰巧前一段时间看过What if: Robert Apocalypse,在这里:
http://what-if.xkcd.com/5/
虽说作者认为AI/或者说机器人不会成为人类威胁,这也是上一段认为人工智能的思考水平无法达到人类水准的典型代表。在可以预见的未来的确如此,但是更远景上看就是很大不确定了。
而且作者写道最后实际上还是露馅了,他提到使用EMP来毁灭机器,实际上这就已经相当于人类与机器人之间的战争了,不过人类手中握有机器人的死穴,所以占据一定的优势,不过如果机器人找到应对的方法,或者说同样找到人类的死穴(比如基因方面的),那又该如何?
作者: 费正清    时间: 2012-9-3 19:13
本帖最后由 费正清 于 2012-9-3 19:19 编辑

naive american
作者: 梦仙MX1324    时间: 2012-9-3 20:44
ExtremeEngine 发表于 2012-9-3 19:04
1、问题就在于资源的有限性。出现另一个物种想要占据目前已经很紧张的资源(因为占有资源是物种生存的前 ...

这里的辩论还在继续啊。记得几年前看过一个新闻,一个在伊拉克服役的美国大兵抱着他的被炸烂的拆弹机器人去找工程师修理,因为损坏太严重了,工程师想给他换一个新的,但那个大兵不要,因为他已经和他的机器人有了感情。人类向来是感情丰富,现在养猫养狗的那么多,以后机器人技术更先进了养个机器人也是很有可能的事。
人是等式的本体,而AI什么的都是等式上的一些符号或者是等式与等式之间的交集部分,这就像一台主机这个整体和主机里面安装的一个程序,这个程序再怎么强大,它也不可能改变主机的硬件,换个显卡,加条内存什么的。既然人和AI是主体和附属的关系,那还有什么可担心的。
丛林法则,嗯,你一定看过刘大的书吧,说实话他的观点我不认同,事物的发展是曲折道路和光明前途的统一,他所说的那种情况不会存在。我不想过多讨论“资源”是不是有限的问题,我也不敢说现在相对人类而言是否存在“外星人”,但你举的例子不具有代表性,那只不过是一些欧洲小国会干出的事,试想如果到达新大陆的是汉代的统治者,情形会怎么样?
作者: ooxx    时间: 2012-9-3 22:43
本帖最后由 ooxx 于 2012-9-4 11:12 编辑
ExtremeEngine 发表于 2012-9-3 19:04
1、问题就在于资源的有限性。出现另一个物种想要占据目前已经很紧张的资源(因为占有资源是物种生存的前 ...


你的第一论点并不正确,所以你后面根据第一论点所做的推论都是不成立的。

你认为人与AI冲突的根本原因将是对资源的争夺,可AI为什么要跟我们争夺资源?我说过:人类历史上没有哪一次战争是因为对资源的迫切需要已到了刻不容缓的地步而发动的,没有,一次也没有,所有的战争都是因为专制僭主或者说是军阀们的个人野心个人欲望造成的,以及由此所制造的民族仇恨,但仇恨总会消散,未来人类社会中也不可能存在专制政府,因此战争只是文明的过程而不会是常态。AI为什么要跟我们争夺资源呢?争夺何种资源?AI是我们造的,我们为什么要造出超出这个世界负荷的数量?我们都明白的道理AI也没理由不明白。制造AI是因为我们需要他们,所以在造出他们的时候我们已经支付过代价了——需要他们的人自然要创造出相应的价值来购买——人类社会所能创造的价值永远大于其消耗的资源。如果我们制造的AI可以融入到人类社会中,那么他们还有什么理由与我们反目成仇,难道幸福的生活不能成为每一个智慧生命的追求吗?

我说小猫的例子,是想说明道德源于人类的情感,而不是你说的环保利益生存。狮子,你觉得AI会和狮子一样?这样的AI还有毛的用处。

你的PS:“……无罪推定也仅仅存在于法理层面上,现实生活中,有一定社会经验的人都在不自觉地施行有罪推定”,很遗憾,你这不叫社会经验,叫流氓逻辑。而且对陌生人的戒备之心和有罪推定完全是两码事,你无论有怎样的担心,总是得自己想办法防范吧?而不是把你害怕的人铐起来,把别人铐起来,你安全了,这才叫做有罪推定,只是因为你的怀疑,别人还没做什么呢,你就认定别人已经犯罪了,这才叫做有罪推定。在我们和AI做到真正的相互了解之前,你就把他们的能力锁起来了,这就是有罪推定。法律是社会规则,就是为了保护社会之中的每一个个体的权益而制定的社会规则,个体的权益和社会整体的权益并不矛盾,无论你是站在谁的立场上,怎样的立场上,无罪推定都能保护每一方的权益,这是公认的,是在漫长的人类文明的发展过程之中所积累的有用经验,这才叫社会经验。

从另一方面,即便是从利益的角度去说:对AI进行硬性的限制,这是一种压迫,有压迫必然会招致反抗,没人愿意被奴役,AI也是一样。所以自由的AI才可能与人类和平共处,才符合人类整体的利益。
作者: zhec    时间: 2012-9-9 10:39
如果人类制造机器只是要把它作为工具,那么就不会给它赋予情感,自然对其的控制就不会受到道德的束缚。如果赋予了情感,那就不是把机器人当做一个工具了,就变成了一种生命形态,对其压迫就不恰当了。这种带有情感的机器,几乎可以算是拥有灵魂。做个假设,比如,如果一个人的思想及情感等一切思维活动可以移植,并且未来可以提取一个人全部的思维活动并把它转移至机器体身上,那么这个机器体是否应该受压迫?这和被赋予完整人格的机器是没有区别的。阿西莫夫三定律作为强制性植入机器体的准则实际上剥夺一个生命的应有的权力,就像往你家的宠物狗身上植入一种病毒,它一旦咬人,忤逆你的意愿他就要暴毙身亡一样。




欢迎光临 深度时空宇宙/太空游戏社区 (https://bbs.deeptimes.net/) Powered by Discuz! X3.5