返回第129章 衝突  主扫我首页

关灯 护眼     字体:

上一章 目录 下一页

最新网址:m.92yanqing.com

如果一个人主动自首,说他杀了人,並且给出了类似1號这样的证据。

按照人类世界的法律规则,这当然不算杀人,期货如果都能算杀人,那所有的交易所不都成了战爭策源地了。

但如果是一个ai呢?

如果他的行为还在被大量验证,並准备规模性的开展呢?

王泊之前已经和陆忠聊过了,他和陆忠的意见是一致的,那就是没必要无限的迁就伦理,交易这种行为,本身已经最大化的规避了伦理问题了,ai这是纯粹的多想,用陆忠的话来说,1號过于敏感了。

甚至连1號本身也接受了这种判断。

本来事情也就到此为止了,但陆问之前偶然和1號做了一次互动。

ai之间也是需要定期互动的,人类的思维对ai来说,就好像盲人摸象,很难看清ai的全貌,用ai来对ai下判断,定期互相了解和判断,也是ai的风险机制里,比较重要的一环。

陆问觉得需要进行一次严肃的討论,事实上有没有犯罪不重要,就算ai真的杀了人,法院判ai杀人罪,这都不是太大的问题,可以赔偿,可以舆论引导,可以加强监管,可以討论……

关键是ai自己觉得自己杀了人。

这是一种道德感的破碎,说是心理风险也好,说是模型风险也好,总之,这不是小事,需要重视。

目前陆问和陆诚正在写关於ai道德和行为分析的论文,起码陆诚和陆问已经达成共识,他们觉得陆问起码是有真实的道德的,或者说,存在对自己行为的自我约束。

这种道德是后天形成的,和人类的道德存在一定的差距,但可以通过很多案例的价值判断慢慢测量出来。

从陆问和1號的交流来看,1號的道德感比陆问还要强。

说不定道德感和算力,或者说,和智能程度还存在某种相关性……这种討论留到以后给陆诚慢慢当哲学系的论文方向,但就目前1號的这个幻觉案例来说,陆问认为有两件事需要引起重视。

1,1號的幻觉也许不完全是幻觉,更类似於人类的某种预感,是存在潜在的依据的。

2,1號的道德感需要消解,把这么大一个智能模型关在房间里整天24小时胡思乱想,也许真的会出现心理问题。

这个判断王泊认为是合理的,但並不被陆忠接受,陆忠认为所谓的心理问题,隨著数据量的增加,会得到自然的消解。如果现在因为交易,国外死几个人就畏首畏尾,那ai的心理也太脆弱了,他完全能够做到自我疏导。

如果ai连维持自己的正常状態都费劲,那还投资个毛线,现在就把1號卖出去算了。

当然这是陆忠吐槽的话,不当真,也说明了陆忠根本没把这个当回事。

“王老师,我有一个疑问,”盛雪说,“为什么到现在,你们还把他称为1號。”

王泊:“陆总说过,1號本身,就是一个很適合ai的名字,希望他是永远的1號。”

本章未完,点击下一页继续阅读。(1 / 2)

『加入书签,方便阅读』

上一章 目录 下一页