主要观点总结
文章介绍了OpenAI前联合创始人Ilya Sutskever所创立的新AI初创公司SSI(Safe Superintelligence)的融资情况、招聘、业务方向以及对AI安全的重视。文章还讨论了全球对AI技术的警觉和监管问题,以及一些AI技术的不良应用,如Deepfake换脸合成色情照片和视频的问题。同时,文章提到AI发展的阴暗面,包括不受控制的AI技术的破坏力,以及顶级科学家如Ilya Sutskever对此的担忧和行动。
关键观点总结
关键观点1: SSI公司获得10亿美元融资,估值50亿美元,将用于建立“安全”AI模型的新业务。
SSI正在构建尖端的AI模型,旨在挑战更成熟的竞争对手,包括OpenAI和Elon Musk的xAI。公司重视聘用能够适应其文化的人才,并强调安全超级智能(Safe Superintelligence)的重要性。
关键观点2: Ilya Sutskever对AI的发展保持警惕,担忧AI可能超出人类掌控。
Ilya Sutskever认为人工智能有潜力创造一个无限稳定的独裁政权,并强调随着人工智能变得比人类更聪明,确保其与人类目标一致将变得极其重要。他成立了自己的公司SSI,致力于安全的超级智能。
关键观点3: 全球对AI技术的警觉和监管问题。
全球各国和人工智能学界对AI的安全性持警觉态度。各国在监管的优先事项上存在差异,但普遍认识到人工智能对人类构成潜在灾难性风险。此外,Deepfake技术的滥用也引起了广泛关注。
文章预览
只有安全生产才能保障扩大规模 作者 | Xin Ling 编辑 | 郑玄 当地时间 9 月 4 日,OpenAI 前联合创始人 Ilya Sutskever 所创立的 AI 初创公司 SSI(Safe Superintelligence)在其社交媒体官方账号宣布, 公司获得来自 NFDG、a16z、红杉美国、DST Global 和 SV Angel 等投资者 10 亿美元融资。据外媒报道,这次融资后 SSI 估值50亿美元。 简短的融资信息结尾附加着公司的招聘启事,似乎暗示这笔钱将用于人才招聘。对于招聘,SSI 目前非常注重聘用能够适应其文化的人才。 SSI 核心成员 Gross 在接受外媒采访时表示,他们花费数小时审查候选人是否「品行良好」,并且寻找具有非凡能力的人,而不是过分强调该领域的资历和经验。「让我们感到兴奋的是,当你发现人们对工作感兴趣,而对场景和炒作不感兴趣时。」他补充道。 此外,SSI 这笔资金还将用于建立「安全」AI 模型的
………………………………