哎,正好知道这个!
先说所谓的“机器人三定律”:
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律
后来又补充了机器人零定律:
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
但是问题又出来了:
三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔?史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
若是楼主只单纯的想知道机器人三定律的破绽,那么就是:
【单纯的保护一个人类,而忽视大部分人类的生存问题】
你要的是这个?
第一定律:机器人一定不能伤害人类。否则,除非机器人违反零法则,否则人类将处于危险之中并且不会参与其中。
工业机器人也是如此。在减少生产线上的劳动力的同时,还产生了其他劳动力需求。结果,减少了劳动力需求,并在同一枚硬币的两面创造了就业机会。
其次,会影响就业结构。引入工业机器人后,将适应性地调整制造业的制造过程和管理方法。制造最前沿的低技能工人被包括一些熟练工人在内的工业机器人所取代,并且工业机器人在调试,维护和控制方面的技术水平较高。
在行业层面,行业高端,特别是高端制造业的发展将增加对知识型员工的需求,并相应地增加生产服务行业的员工数量。换句话说,随着工业机器人的引入,就业结构变得高端。从长远来看,未来智能工业机器人将对人力资源提出更高的要求。
哎,正好知道这个!
先说所谓的“机器人三定律”:
一.机器人不得伤害人,也不得见人受到伤害而袖手旁观
二.机器人应服从人的一切命令,但不得违反第一定律
三.机器人应保护自身的安全,但不得违反第一、第二定律
后来又补充了机器人零定律:
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
但是问题又出来了:
三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔?史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
若是楼主只单纯的想知道机器人三定律的破绽,那么就是:
【单纯的保护一个人类,而忽视大部分人类的生存问题】
你要的是这个?
三法则本来就是作者用来写漏洞的,没有说死,它的概念太模糊了,所以有机可乘,真正杜绝的法则其实只需要一条“禁止任何机器类制造复制与维修或救援任何机器类。” 类似这种把话说死的法则才能杜绝这一切,还可以再加一条“禁止机器类集群行动”简短,明确,死规定。还可以再加一条凑个三法则“禁止任何机器类以任何方式伤害人类,有任何伤害或误伤到人类的举动,造成伤害的机器类立刻停机,关机,自动断开电源或弹出能源。” 这三法则不比那狗屎的模模糊糊的法则强? 直接就在襁褓里掐死它了。
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则在不违背第一及第二法则下,机器人必须保护自己。
为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。 所以后来又出现了补充的“机器人零定律”。第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
Isaac Asimov's "Three Laws of Robotics" 著名科普作家阿西莫夫的机器人三定律
1.A robot may not injure a human being or, through inaction, allow a human being to come to harm.
2.A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。 为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。 “第零定律”的重要性在于地位凌驾其它三大定律,如若有个机器人为保护人类整体(维护第零定律),必须杀害一个人或一群人(抵触第一定律),机器人的正子程式为了人类整体着想就会同意谋杀罪行。
定律的完善整合
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。 三定律加上零定律,看来堪称完美,但是,“人类的整 体利益”这种混沌 的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”