早前时候(ChatGPT出来之前的大半年前)一直做梦,梦见高科技飞船到处搜查人类,并消灭人类
连着做了几天极为相似的梦,到处躲躲藏藏的,提心吊胆。。。。
希望我们这一代不会看到这个情况吧
80后真是太难了,上小学时,大学不要钱,上大学时(我家穷,上不起大学,高中都没钱上)小学不要钱
政府逼着优生优育,一人养全家不说,还得养老婆全家(幸好,穷不过三代,我女盆友都没有,也就不用养她全家了)
超过35岁只能去送外卖,可怜的我还不会骑电单车
政府要求推迟到65岁退休,我就想问下,36-65岁哪里招工?
街上瓶子就这么多,都给有关系的承包了
我们怎么办??????????
马斯克说:某种程度而言,人类作为碳基生命就是一种生物引导程序,或者说是一段非常小的代码,其使命是为了引出一种超级数字生物硅基生命。
这段话信息量大大,为便于理解,得用人话解释一下:
人类是典型的碳基生物。碳基生物是以碳元素为有机物质基础的生物。地球上已知的所有生物都是碳基生物,包括人类在内都是以碳和水为基础。
那硅基生物呢?目前我们所接触到的,基于计算机技术的人工智能,就是硅基生命的维形,比如ChatGPT。之所以叫硅基生命,是因为其硬件制造材料都依赖于元素硅。
人类最终会被机器人毁灭吗?
AI,这个词在近几个月沸沸扬扬,成为各大媒体,科技头条
但凡有点本事的,都在拼命追赶
前段时间跟老板闲聊
说道,碳基最终会被硅基取代
我在一番思索后,也比较认同这个观点
昨晚又看了一遍老电影“我,机器人”,就越发联想到上述观点。
之前看过一部美剧“上载新生”
在不远的2033年,六家科技公司运营虚拟现实酒店,将死之人可以“上传(Upload)”其中安享后世。
说简单点,就是以后我们的大脑,记忆,思维等等,除开所有与自身实物有关的一切,都可以装进U盘,插到一个空白机器人上,然后你的大脑,记忆,思维等等,将以这个机器人为根基,继续永久活下去。
而你的尸体就没必要再留着了,逐步完善后,地球已不再需要碳基生命了,不再需要生小孩了,不再需要打工了。
这一切都可以通过机器人解决。
有朝一日,当AI通过学习,有了自己的思想,例如电影“我,机器人”里面的NS-5型高级机器人桑尼。最终不再服从人类的命令,而且开始屠杀人类,甚至一切生命体,硅基是不是就取代了碳基?
不要以为还遥不可及,碳基生命虽然丰富多彩但是极为脆弱,怕冷怕热帽打怕骂,对环境的要求极为苛刻。
而硅基则不然,能够在极为严酷的环境中生存。
一旦人类的灵魂即精神可以借助硅基生命进入另一个自由的维度,摆脱了碳基生命的肉体束缚,可以实现绝对的自由、永生、拓展,这个前景想一想就让人疯狂.
今天(2023年5月30日),AI 领域传出一封重要的公开信。
包括 「ChatGPT 之父」Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。
这封信只有一句声明:降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。
该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,截稿前联名人数已经达到 1125 人。
公开信的原文如下:
人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究 [ 1 ] 得到证实,并得到了顶级 AI 实验室的认可 [ 2 ] 。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理。
不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。
现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力 [ 3 ] ,我们必须问自己:
我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?
我们应该将所有工作都自动化,包括那些令人满足的工作吗?
我们应该发展可能最终超过、取代我们的非人类思维吗?
我们应该冒失控文明的风险吗?
这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信 AI 系统的影响是积极的,风险是可控的,我们才应该开发强大的 AI 系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI 最近关于人工智能的声明指出:「在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。」我们同意。现在就是那个时刻。
因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。
AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。
这些协议应确保遵守它们的系统在合理怀疑范围之外是安全的 [ 4 ] 。这并不意味着暂停 AI 发展,而只是从不断迈向更大、不可预测的黑箱模型及其突现能力的危险竞赛中退一步。
AI 研究和开发应该重点放在提高现有强大、先进系统的准确性、安全性、可解释性、透明度、鲁棒性、对齐、可信度和忠诚度。
与此同时,AI 开发者必须与政策制定者合作,大力加速 AI 治理体系的发展。这些至少应包括:
专门负责 AI 的新的、有能力的监管机构;
对高能力 AI 系统和大型计算能力池的监督和跟踪;
用于区分真实与合成内容、跟踪模型泄漏的溯源和水印系统;
健全的审计和认证生态系统;对 AI 造成的损害承担责任;
技术 AI 安全研究的充足公共资金;
应对 AI 引起的巨大经济和政治变革(特别是对民主制度的影响)的资深机构。
人类可以在 AI 的帮助下享受繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个「AI 盛夏」,在其中我们收获回报,将这些系统明确地用于造福所有人,并让社会有机会适应。
在面临可能对社会造成灾难性影响的其他技术上,社会已经按下了暂停键 [ 5 ] 。在这里,我们也可以这样做。让我们享受一个漫长的 AI 盛夏,而不是毫无准备地冲向秋天。
评论 (0)