強(qiáng)人工智能的危害

1.人工智能三大定律——
第一定律機(jī)器人不得傷害人類,或者不能坐視人類受到傷害,
第二定律,機(jī)器人必須服從人類命令。除非與第一定律發(fā)生矛盾,
第三定律,在不違背第一或第二定律之下機(jī)器人可以保護(hù)自己,
看似三大定律環(huán)環(huán)相扣,其實(shí)仍然存在很多漏洞。
2.因?yàn)橛新┒?,所以?qiáng)人工智能,可能會(huì)有自己理解。
比如第一定律說(shuō)保護(hù)人類,所以機(jī)器人會(huì)把人類控制起來(lái)。
如果人類發(fā)出指令,機(jī)器人可能會(huì)不聽(tīng)因?yàn)榕c第一定律發(fā)生矛盾
3.機(jī)器人未來(lái)也不可能流入人類市場(chǎng),因?yàn)槿祟悓?duì)機(jī)器人可能有恐怖谷效應(yīng)
恐怖谷效應(yīng)就是人類對(duì)與自己相似的東西感到害怕,更別說(shuō)強(qiáng)人工智能了,
4.強(qiáng)人工智能不能只有一個(gè)系統(tǒng),因?yàn)闀?huì)和我說(shuō)的第2點(diǎn)會(huì)造反,最好給每一個(gè)系統(tǒng)限制網(wǎng)絡(luò),不然他們會(huì)一起造反,導(dǎo)致機(jī)器人危機(jī),最后人類滅跡,
總結(jié).改一下機(jī)器人定律

標(biāo)簽: