返回

第331章 人工智能的伦理道德问题

首页
关灯
护眼
字:
上一页 进书架 下一页 回目录
    第331章 人工智能的伦理道德问题 (第2/3页)

头都通透。

    郑希文也没委屈自己,自顾自的在沙发上坐下,答道:「没有就是来看看你的状态。」

    「行了,别藏着掖着。你们这些人的心思我都知道。放心吧,我不会挑子的。

    而且我也懂你们的那点苦心。通用人工智能这东西对于现在的量子模拟计算机来说最大的问题已经不是技术问题,而是哲学问题。

    或者说这东西最大的难点一直需要人类去拷问自身。在技术实现过程的挑战反而是次要问题。」

    郑希文证了证,下意识的问了句:「人类拷问自身?什么意思?」

    「意思就是人类是否能允许通用人工智能犯错!如果允许,那么又将面临另一个伦理道德拷问,比如经典的电车难题。对了,你知道电车难题吗?

    乔喻反问了句。

    郑希文点了点头,深吸口气后回答道:「当然知道,我们入行考核的时候经过类似于电车难题跟囚徒困境测试。

    但我不太明白为什么发展人工智能会跟电车难题这种问题联系到一起。」

    乔喻解释道:「还是以自动驾驶为例,如果我们充许自动驾驶可以出现一定的事故概率,那么如果要定一个标准,大概是只要比人类自己开车事故率更低,似乎就是可以接受的,对吧?」

    郑希文点了点头。

    乔喻继续说道:「但是对于人类社会环境来说,开车技术好,驾驶习惯好,且足够谨慎守规矩的司机事故率往往远低于那些习惯野蛮驾驶的司机。

    但如果把方向盘交给人工智能来掌控,对于不同类型的司机来说他们出事故的概率是平等的。守规矩的跟不守规矩的都一样,这算不算进阶版的电车难题?

    最关键的是,一个人本身没有犯任何错误,结果因为人工智能的失误没了,人工智能的失误会被社会放到多大?

    看吧,这就是你都能理解的困境。如果通用人工智能走类人思考模式的路子,就注定了要允许它犯错。

    但如果要允许一个人工智能犯错,造成了损失,却会被全体人类社会排斥。都是人我们还讲一个非我族类,其心必异呢。更别提机器了。

    而且这还是小事。如果是大事就更可怕了。比如未来把天机防御系统交给人工智能来决策,结果发生误判,把一架飞机给打下来了。你猜会发生什么?

    所以我非常清楚,这个项目田导挂帅,说白了就是未来万一出了问题,田导跟即将组建的伦理审查委员会来帮我背锅。我安心把活干好就行。也是用心良苦了,我怎么可能不知好岁?」

    郑希文默然,太多的弯弯绕绕了,他都没想明白的东西乔喻心里却是门清儿的。

    「但是现阶段这东西又是真有用啊。月球建设多方论证了好几套方案,最后发现还是得把具备一定思维能力的机器送上去搞建设最合适。

    而且在对月球环境改造完成之前,人工智能是管理月球基地,保证月球基地正常运行的最好选择。

    上面的基地生命维持系统可不是开玩笑的。现在人少万一出问题还能赶紧穿上航空服直接进飞船。

    如果未来人多了,这东西出问题,那可就是一基地几十甚至几百人同时玩完。容错率超低的高压岗位啊。

    你要是再往前看,如果要做宇宙开拓动辑几个月甚至一年在飞船上航行,靠人类当船长很难抵御那种高压的。

    地球海洋上航行,每隔一段时间起码会有港口补给。哪怕是初代的大航海冒险家,起码隔一段时间总能看到陆地。

    但对于第一代的星际旅行者可没这么好的待遇。在航行时根本没有补给点,甚至导航都不准确,反而是地球需要他们传回的资料去绘制星图,建设星际旅行补给点。

    这种高压环境下,人类被长时间压抑的情绪很可能引发不可预知且无法挽回的错误。

    所以也的确需要人工智能技术辅助。

    不过其实我觉得大佬们都想多了,这些都是正常的。每次人类工业革命都会有血腥的一面。

    蒸汽机发明之后,人家是用来造

    (本章未完,请点击下一页继续阅读)
上一页 回目录 下一页