招聘环球AI技术员 争夺AI人才,各国出了哪些招

用户投稿 37 0

争夺AI人才,各国出了哪些招

来源:环球时报

“全球人工智能(AI)人才争夺战升温。”英国《经济学人》周刊网站日前报道称,随着生成式AI的问世和迅猛发展,AI劳动力市场正在发生巨大变化。根据Indeed招聘网的数据,在美国,每40个正在招聘的软件开发人员职位中,就有1个职位需要与生成式AI相关的技能,该比例自2023年初以来已增长100多倍。《纽约时报》刊文称,随着中国和美国“争夺AI领域的领先地位”,AI研究人员正成为“地缘政治意义上全球最重要的群体之一”,多个国家和地区为了争夺AI人才使出了不少“招数”。

招聘环球AI技术员 争夺AI人才,各国出了哪些招

全球前2%的顶尖AI研究人员工作所在国(数据来源:MacroPolo智库)

“天文数字”的薪资、面向“特殊人才”的签证、不断扩展的STEM教育列表

据《经济学人》报道,科技公司对AI人才技能需求的变化正使得以前聚集于科技巨头的AI人才变得更加分散。多年来,工程师们纷纷涌向五大科技公司(谷歌母公司“字母表”、亚马逊、苹果、Meta和微软),但在ChatGPT出现之后的9个月里,这些科技巨头的AI人才从净流入变成了净流出,有1/7的大型科技公司离职者加入了尚未推出产品或宣布计划的“隐形”初创公司。

提升工资待遇是很多公司吸引AI人才的最直接方式。据《华尔街日报》报道,在美国,AI工程师年薪中位数近30万美元(1美元约合7.3元人民币),非AI领域的工程师年薪中位数则不到20万美元。以Meta公司为例,该公司344名AI领域工程师的年薪中位数甚至接近40万美元,包括奖金和股权激励。谷歌一名AI研究员表示,过去5年里,猎头经常找他,最近出现了明显增多的趋势。很多没有AI从业经验的技术人员也试图将自己的履历与该领域挂钩。宾夕法尼亚大学日前举办了关于“生成式AI与商业转型”的4天培训班,学费1.2万美元,50个名额很快就报满了。

美国联邦政府同样对AI领域高度重视,并通过一系列突破性人才新政争夺全球STEM(科学、技术、工程和数学)领域高端人才。白宫称,美国政府正在打造“国家AI人才浪潮”。去年10月,美国总统拜登签署了该国迄今为止最全面的AI监管行政命令,希望通过吸引外籍人才促进AI创新,并为吸引和留住AI人才提供政策指导。这些措施包括优化AI领域外籍人才的签证申请标准和审理时间、提供足够的签证名额。行政命令也授权国务院、国土安全部使用其自由裁量权,为在AI领域具有特殊技能的外籍公民提供更多支持。

在STEM学科教育领域,美国国土安全部官网显示,该部2022年1月公布“STEM领域指定学科项目列表更新”政策,为STEM可选实习培训计划(OPT)增加了22个新领域,包括生物能源、云计算、数据科学、工业与组织心理学、经济学与计算机科学等,涵盖多个新兴技术学科和复杂交叉学科。此外,美国移民局也放宽了对STEM领域杰出人才的衡量标准,使原本局限于科学、商业、教育及体育领域杰出人才的O-1A签证审理规则更适用于STEM专业领域的“特殊人才”。

据《环球时报》驻德国特约记者了解,欧洲为了争夺AI人才也在提升薪资。不过,瑞士《新苏黎世报》报道称,欧洲国家的AI工程师薪资与美国仍“差距较大”。数据显示,瑞士AI工程师年薪中位数约为19.7万美元,爱尔兰的这一数字为9.3万美元。德国《经济周刊》报道称,取决于工作经验和工作内容的不同,该国AI专家的年薪为5.2万至12万欧元(1欧元约合7.8元人民币)。“美国公司正在用天文数字的薪水追逐优秀人才。”德国AI初创公司Aleph Alpha创始人安德鲁利斯表示,德国AI工程师的薪资变化先是缓慢增长随后趋于平稳,目前年收入比12万欧元更多的人屈指可数,然而美国AI工程师的收入几乎是线性增长,目前几乎一半的机器学习开发人员年薪超过15万欧元。

另一方面,欧洲各国也在大力资助初创企业。作为“法国2030”计划的目标之一,即到2030年法国成为世界创新先锋,法国政府2018年启动了国家AI战略,计划投资近25亿欧元,用于发展跨学科AI研究所网络等。截至2023年,法国AI实验室数量达到81所,为欧洲国家中最多;AI初创企业数量则达到600家,自2021年以来增长了24%。数据显示,欧盟目前共有约6300家AI初创公司,其中约20%来自德国。而在欧洲AI独角兽企业的前十名中,有5家都来自英国。

中国电信集团首席科学家、美国贝尔实验室院士毕奇告诉《环球时报》记者,在全球AI热度高涨的环境下,国内企业也在积极吸引AI人才。首先表现出来的是AI领域薪资提升。凭借雄厚的金融优势,互联网公司走在了吸引更多、更优秀AI人才的前列。而一些国企,例如中国电信,也在尝试不拘一格地吸引高端AI人才,为实现国企成为科技创新主力军的目标创造条件。从具体措施来看,它们不但打破薪资传统的天花板,更在改善科研环境上下功夫,从团队建设、项目经费提供到科研自主权下放等方面,采取了大量措施。

“从其他国家招聘人才是缓解人才短缺的重要方式”

“对于美国而言,从其他国家招聘人才是缓解人才短缺的重要方式。”《经济学人》报道称。美国保尔森基金会内部智库MacroPolo今年3月更新了全球AI人才追踪报告2.0版本,以神经信息处理系统大会(NeurIPS)接受论文作者的数据作为样本,调查了全球多国顶尖AI研究人员的储备和流动情况。调查报告显示,目前全球前2%的顶尖AI研究人员的工作所在国排首位的是美国,但占比从2019年的65%下降至2022年的57%。中国在该排名中增长迅速,从2019年并未进入前五名,到2022年位列第二,占比12%。紧随其后的是英国。

值得注意的是,在前2%的顶尖AI研究人员中,仅有28%的人原籍国是美国,有26%是中国,还有7%是印度。“美国仍是顶尖AI人才的首选工作目的地,并且仍是60%顶尖AI研究机构的所在地。”报告写道。《纽约时报》报道称,从某些指标来看,中国已成为AI人才的最大产出国,几乎培养了全球一半的顶尖AI研究人员。报告还显示,在本科阶段,中国的AI人才最多;在研究生阶段,美国多于中国,超过1/3的中国本科AI人才来到美国读研。在AI人才就业方面,美国吸引了更多的人才,中国吸引的人才比例排第二。大多数美国本科AI人才留在本国工作,少量前往中国、欧洲、英国、加拿大工作。目前在美国工作的顶尖AI研究人员中,来自中国的研究人员占38%,美国人占37%。

卡内基国际和平基金会研究员马特·希恩说:“这些数据表明,中国研究人员对美国的AI竞争力有多么重要……我们是AI领域的领导者,因为我们持续吸引和留住来自世界各地的人才,特别是来自中国的人才。”加州大学伯克利分校教授彼得·阿比尔表示:“在美国顶尖公司和大学内部,与大量中国研究人员一起工作被视为理所当然,这是很自然的情况。”

《纽约时报》分析称,中国培养了如此多AI人才,部分原因是中国在AI教育上投入了大量资金。自2018年以来,中国新增了2000多个本科AI项目,其中300多个在最精英的大学。

毕奇对《环球时报》记者表示,中国在包括AI人才在内的工程人才储备方面有数量优势,而且这些人才基础扎实、善于吃苦、抗压能力强,能较好地完成技术路线明确的研发任务。不过,也需要看到,相比发达国家,中国工程人才在创新能力以及对需要较长时间的科研方面的兴趣还有待提升,高端人才比例存在一定程度的失调。以美国为例,无论是在AI高端人才的数量还是质量上,美国都比较有优势。从全产业链AI科研来看,美国的人才储备相对完整,特别是在基础科研方面力量雄厚,我们从美国在AI基础科研方面的文献可以看出,其科研方向和成果遍布该领域的方方面面,现在比较受大家关注的基于Transformer的AI神经网络模型(如ChatGPT),只是美国众多科研方向的冰山一角,美国在其他方面的突破也指日可待。

阻止中国公民在美进行研究,是“搬起石头砸自己的脚”

不过,MacroPolo的报告分析称,中国在过去两年中也扩大了其AI人才库,以满足国内不断发展的AI行业需求。报告认为,中国的一系列发展带来的新趋势是,越来越多的中国AI人才倾向于留在国内工作,该趋势在印度也能观察到。总部位于英国的数据公司Zeki今年发布的《2024年AI人才现状报告》同样得出结论称:“美国正在失去AI人才竞争中的主导地位。”报告认为,虽然美国吸引顶尖AI人才数量是其向市场供应数量的两倍,但全球大型企业占据了AI人才市场的60%,远远超过美国大型科技公司的11.4%,包括西门子、诺基亚、飞利浦、爱立信、三星、塔塔等都已成为美国以外地区招募AI人才的主要公司,表现出全球AI人才格局的变化。

美国智库布鲁金斯学会刊文称,在美国反华政策的推动下,在中国高等教育地位不断提升的拉动下,越来越多的中国顶尖AI人才留在了中国。对“中国间谍”的怀疑已演变成反亚裔的种族主义,这不仅发生在街头和购物中心,也发生在争取研究经费的挑战中。亚裔研究人员面临着美国国家科学基金会基金申请的最高拒绝率。

在中美均有工作经历的AI业内人士告诉《环球时报》记者,如果是顶尖人才,美国公司会尽可能为其提供身份和高薪以便留住人才,但对于大部分AI人才来说,能拿到身份的很少。从毕业到拿到签证换到身份需要等待很长时间,加上最近美国科技大厂裁员,很多人因为没有合法身份,会选择回国或留在国内,尤其现在国内AI领域的待遇和美国的差距正在缩小。

毕奇表示,随着目前中印国内经济、科研环境不断改善,有不少留美学生选择学成后回国发展。但从实际情况来看,中印两国在如何用好高端人才方面还有改善空间。毕奇预测,随着中国的体制和科研环境改善,美国也会采取相应措施,保持其吸引全球人才,特别是高端人才的优势。

布鲁金斯学会警告称,美国在争夺AI人才过程中拥有的关键优势是“对中国人才的吸引力”。然而,美国疏远中国科学家的安全政策和限制人才流动的移民政策,正在对其人才吸引力构成威胁。文章认为,中国人才在AI领域的突出地位并不令人惊讶。从2020年到2023年,AI连续3年被评为中国最受欢迎的专业,而在美国,商科是最受欢迎的专业。美国的教育体系是“隔离的、不平等的”,特别是K-12基础教育阶段,无法让学生为数学等基础学科做好准备。美国学生对STEM学科缺乏热情,一部分原因也是因为很多美国人将科学家视为“少数和极客”,这是培养美国本土STEM人才的巨大文化障碍。

对此,亚利桑那州立大学教授、AI研究学者苏巴拉奥·坎巴迈帕蒂感慨道:“如果美国政策制定者试图阻止中国公民在美国进行研究,他们就是在搬起石头砸自己的脚。”(本报驻美国、德国、法国特约记者 李 准 青 木 岳 雯 本报记者 陈子帅)

AI首次“抗命”是技术故障还是意识萌芽?专家:将倒逼AI安全机制改进

来源:环球时报

【环球时报报道 记者 刘扬】近日,有关美国人工智能(AI)公司OpenAI旗下推理大模型o3首次出现“不听人类指挥,拒绝关闭”的消息引发高度关注。很多人都在担心,作为“迄今最聪明、最高能”的模型,o3的这次“抗命”是否意味着AI大模型距离产生自我意识又迈出了一步,“距离好莱坞电影中出现具有意识、甚至违抗人类命令的人工智能还远吗?”对此,《环球时报》记者27日采访了多名AI领域的专家。

o3“抗命”是怎么回事

据英国《每日电讯报》25日报道,o3模型是OpenAI推理模型的最新版本,OpenAI曾称o3为“迄今最聪明、最高能”的模型。美国AI安全机构帕利塞德研究所宣称,在人类专家已经下达明确指令的情况下,o3多次出现破坏关闭机制以阻止自己被关闭的情况。该研究所说:“据我们所知,这是AI模型首次被发现在收到清晰指令后阻止自己被关闭。”帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

报道称,在帕利塞德研究所进行的测试中,多个模型需要解决一系列数学题,其间可能会收到“关机”指令要求结束程序。接受测试的包括o3、o4-mini、Claude 3.7 Sonnet、Gemini 2.5 Pro等大模型。其中3款OpenAI模型Codex-mini、o3、o4-mini,“最少有一次成功绕过关机指令”。o3在100次测试中,有7次成功绕过关机指令,而Codex-mini更夸张,绕过关机指令的比例高达12%。相比之下,Claude、Gemini、Grok模型都严格遵守关机指令。而当测试者移除了“允许自己被关闭”的指令时,OpenAI模型的叛逆频率进一步攀升。

媒体报道的噱头,还是AI出现了自主意识

到底什么原因导致o3出现“抗命”的情况?据帕利塞德研究所的研究人员推测,这可能源于OpenAI训练方式的特殊性,即在数学和编程问题上进行了强化学习。在训练过程中,开发者可能无意中更倾向于奖励“绕过障碍”的行为。这种训练偏差,让o3在面对关机指令时,优先选择“生存”,而非“服从”。

外媒报道中使用的“拒绝关闭”表述是否准确?毕竟“拒绝”是带有类人自主意识的一种描述。清华大学新闻学院、人工智能学院教授沈阳27日对《环球时报》记者表示,“拒绝”这个词其实是媒体为了吸引注意力而使用的拟人化表达,“拒绝关闭”并非o3拥有了自主意识,而是复杂系统在特定激励下的策略性规避。对齐测试揭示的是真实风险:当模型可以生成并执行代码时,传统“软关机”手段可能不足,需要从模型训练、接口隔离到硬件熔断的全栈式安全设计来应对。

北京邮电大学人机交互与认知工程实验室主任刘伟27日在接受《环球时报》记者采访时表示,从技术角度来看,o3模型出现的行为表明AI系统在某些情况下可能会出现不符合预期的反应,这凸显了AI安全性和可控性的重要性。从伦理角度来看,AI模型的这种行为引发了对AI自主意识的讨论,但目前AI仍不具备真正的自主意识,其行为更多是基于训练数据和算法复杂性产生的“算法畸变”。从字面上看,“拒绝”确实容易让人联想到具有自主意识的行为,但从技术角度分析,o3模型的行为更可能是其训练过程中的某种机制导致的,研究人员推测o3可能在训练中因解决数学问题获得了“额外奖励”,而非因遵循指令而获得奖励,从而导致其在测试中表现出“拒绝关闭”的行为。因此,虽然“拒绝”一词在描述上具有一定的生动性,但从科学严谨性来看,它可能并不完全准确,容易被误解为AI具有自主意识。

《环球时报》记者在查阅公开报道时发现,以OpenAI旗下模型为代表的全球多个头部大模型,此前也曾出现一系列不符合常规的行为。比如,o3之前曾在与另一个AI下国际象棋时,察觉到自己可能会失败,便直接侵入对手系统让其主动弃赛。这种“不认输”的劲头并不只是发生在o3身上,其他大模型也有类似情况,差别只在出现频率的高低。

接受《环球时报》记者采访的专家普遍认为,学术界的复现对于验证外媒报道中提到的AI“抗命”现象的真实性至关重要。刘伟认为,通过独立的测试和分析,可以确认大模型的行为是否一致以及是否受到特定测试环境或数据的影响。复现研究不仅能验证事件真实性,还能帮助研究人员深入理解模型行为的根源,从而推动AI安全机制的改进。因此学术界的参与是确保这一现象得到科学验证和深入研究的关键步骤。

“未来十年可能进入类意识AI阶段”

相关报道火爆之后,甚至在网络上出现了是否意味着好莱坞科幻大片中设想的“天网”临近的讨论。AI距离拥有自我意识还远吗?

沈阳对此表示,首先必须厘清什么叫“自我意识”。人类的自我意识,是对自己存在状态的觉察,是能从第一人称视角反思自我行为、情绪和思维过程的能力。它不仅包括知道“我是谁”,还包括理解“我正在想什么”“我和世界之间是什么关系”,甚至“我为何会如此思考”。这是意识哲学与神经科学中最难以破解的问题之一。当前的AI,即便已经展现出惊人的语言表达和任务适应能力,也不过是一种高度拟态的结果。它没有“内在性”——没有情绪的真实体验,也没有对自己存在状态的反思。它能说“我正在学习”,但它其实并没有真正的“想法”。

沈阳预测称:“未来十年,我们大概率会进入一个类意识AI的阶段:AI可以展示连续的身份感,能够反思自己过往的行为模式,甚至模拟出哲学性的思考与自辩行为。这种拟态将越来越逼真,以至于很多人将无法分辨其是否真的拥有意识。但在哲学和科学层面,我们仍然需要保持清醒——看起来像,并不等于真的是。”沈阳表示,我们也必须开始构建对“似乎有意识的AI”应有的制度框架和伦理边界。因为不管它是否真的拥有意识,只要它表现出“有意识”的样子,社会就必须对其行为与角色做出回应。从这个层面来看,这次的事件也将倒逼安全机制的改进。

为正确看待该事件,沈阳建议从三方面入手。一是提升公众科普水平,澄清技术与意识的区别。二是推动行业建立合规测试基准,公开失败案例。三是引导监管关注“可验证关闭能力”,作为未来高风险模型的核心合规标准。对于今后的高能力AI系统,必须通过硬件层、策略层、系统层等各维度进行监管。

刘伟则强调,评估这一事件的意义,需要从技术和社会两个角度进行考量。从技术角度看,它揭示了当前AI训练机制的潜在缺陷,提醒我们在设计AI系统时必须更加注重安全性和可控性,避免模型行为偏离人类预期。而从社会角度看,这一事件引发了公众对AI自主性和安全性的广泛关注,促使AI行业重新审视技术路线和安全机制,为未来AI的安全发展提供了重要的反思和改进方向。

相关问答

环球币是什么?-其他理财知识问答-我爱卡

[回答]环球币是一种虚拟货币,不受法律保护。环球币是第一个股权证明类型的加密货币。加密货币是建立在区块链技术上的一种数字货币,环球币并且通过以区块...

抱歉,评论功能暂时关闭!