科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航



至顶网新闻频道从原子世界回到量子世界的霍金给我们留下了什么

从原子世界回到量子世界的霍金给我们留下了什么

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

3月14日消息,史蒂芬 · 霍金(Stephen Hawking)在英国剑桥家中去世,享年76岁。整个世界陷入了震惊和哀悼中,没有人会忘记他。

来源:科技行者 2018年3月14日

关键字:霍金

3月14日消息,史蒂芬 · 霍金(Stephen Hawking)在英国剑桥家中去世,享年76岁。

他的三个孩子露西(Lucy)、罗伯特(Robert)和蒂姆(Tim)在声明中这样说:

“我们亲爱的父亲今天去世了,我们深感痛心。他是一位伟大的科学家,也是一个非常杰出的人,他的工作和成就将会留存多年。他的勇气和坚韧,以及他的才华和幽默激励了全世界的人。他曾经说过,如果不是宇宙这不是你所爱的人的家园,它就不是宇宙。我们会永远怀念他。”

整个世界陷入了震惊和哀悼中,没有人会忘记他。

因为他的"传奇"经历,也因为他留给世界的诸多贡献。

1963年,21岁的霍金被诊断出肌萎缩性侧索硬化症(ALS),手部只有三根手指可以活动,被医生确诊只剩三到五年的生命;1985年,因一次严重的肺炎使他失去了发声能力,只能通过电子语音合成器进行交流。

磨难似乎总不"待见"他,但他从来也未曾屈服于命运,持续进行着他的科学研究工作。

从原子世界回到量子世界的霍金给我们留下了什么  

霍金对空间、时间和黑洞奥秘的探索非常着迷,也撰写了诸多论文和相关作品,他的著作《时间简史》使他成为继爱因斯坦之后科学界最伟大的名人之一。

作为牛顿的继任者之一,霍金在1979年到2009年出任剑桥大学卢卡斯数学教授,参与了物理学"统一理论"( unified theory)的探索。

这一理论描述了支配大行星如行星运动的引力定律,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论——爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。

加州大学圣塔芭芭拉分校理论物理学家加里霍洛维茨对此表示,这一发现帮助科学家们更进一步地破解了统一理论。

霍金的另一个主要贡献是宇宙学,即宇宙起源和演化的研究。1983年,他与加利福尼亚大学圣巴巴拉分校的吉姆哈特尔合作,提出了空间和时间可能没有开始也没有结束的理论。

然而,2004年他又颠覆了这一观点,即吸入黑洞的物体将直接消失,或进入另一个替代的宇宙。相反地,他也认为物体可能会以某种破损的形式从黑洞中被吐出。

对于霍金来说,搜寻宇宙的"奥秘"几乎是一种信仰,他曾表示:"如果能够找到一个'万物理论',就可以让人类'认识上帝的心灵'。

"一个完整的,一致的统一理论只是第一步。我们的目标是完全理解周围的事件和我们自己的存在。"他在《时间简史》中这样写道。

然而,几年之后,他又提出一个统一的理论可能并不存在。

以《时间简史》为线,霍金又在2001年以更简单的方式编写了《宇宙简介》(The Universe in a Nutshell),更新了读者关于超重力、裸奇点和十一维宇宙的可能性等概念。

霍金表示,相信一个介入宇宙的上帝能够"确保好人在下一个轮回获得回报"是一厢情愿的想法。

"但人们不禁要问,为什么宇宙会存在?"他在1991年这样说:"我不知道其中的答案,它也同样让我困扰。"

霍金的早年生活被记录在2014年的电影《万物理论》中,其中扮演霍金角色的演员埃迪·雷德梅因还为此获得了奥斯卡最佳男主角奖。

尽管霍金认为残疾并不会影响他的工作,但事实上,他可能经常需要数分钟才能写出一个问题的答案。当然,这并没有削弱他自己亲自体验太空的野心,2007年,霍金乘坐喷气式飞机多次潜水,只为了模拟零重力时,轻微失重的感觉。

他曾经希望有一天可以完全离开地球,来一次星际旅行。

"从长远来看,人类不应该把所有的鸡蛋放在一个篮子里,或者放在一个星球上,"霍金在2008年说,"我希望我们可以避免在此之前放弃篮子。"

除此之外,霍金近几年来对人工智能的关注也非常热切,同时也是人工智能威胁论的拥护者之一。他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。

然而,他也明确表示,人工智能的真正风险不是它的恶意,而是它的能力。"一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。"

在他看来,人类面临的最大威胁是自身的弱点,即贪婪和愚蠢。这些人性的基本属性,将使在人工智能时代的境况将变的更加糟糕,因为当机器被设定程序后就知道适可而止,知道就流勇退,但是人类很难,除非是那些极高修为的人,才能突破人性的弱点,但是机器人可以轻而易举的回避这些弱点。

因此,霍金一直在呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起,呼吁监管和立法在AI的发展过程中的作用。

    [an error occurred while processing this directive]
邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

您最受关注专题
往期文章