必发官网登录手机版 | 必发娱乐游戏官网

必发官网登录手机版_必发娱乐游戏官网

当前位置:主页 > 新闻资讯 > 常见问题 >

我们的“ AI行动计划”是一万个单词! Openai和人

Xin Zhiyuan报告编辑:社论ZJX社论[Xin Zhiyuan简介]就在今天,美国政府已经为“ AI行动计划”的所有生活环境中的所有政策建议都暴露了所有政策建议。 Openai强烈地说,DeepSeek让我们可以立即将中国的AI锁定,并且高端GPU芯片和模型重量应受到中国流的限制!人类也要求立即使用H20漏洞键,并严格控制H100阈值。自AI战斗以来,接下来会发生什么? 4月25日,美国网络和信息技术研发(NITRD)揭示了所有美国各部门在“ AI行动计划”中提交的所有书面意见。网站链接:https://www.nird.gov/coordination-areas/ai/90---9088-响应/拜登的AI行政命令在本届政府中无效。现在,TheTrump Administration需要一项全新的AI行动计划,以继续维持我们的AI领导力。意见总数目前收到的超过10,068!扩展全文 这些建议来自美国的所有生活条件,来自美国学术界,行业团体,私营部门,美国州政府,以及热情的公民。 在10,000多个意见中,共有292家公司发言 最聪明的是开放性的和人类的。 两家公司一直是坚韧的词 - 中国必须加强技术障碍! 具体而言,有必要限制高端GPU芯片和模型权重向中国的流动,美国AI应该赢得中国的竞争。 元元素属于这两家公司,并强调像往常一样开放资源AI。因此,他们认为不可能在开放资源模型中出口控制措施,这只会导致美国投降主导地位并在中国开放的资源模型中消费全球开发商。 同样,Google也批评了BIDen的AI出口控制权,并建议特朗普政府应仔细设计出口控制,以防止美国公司的安置。 微软和亚马逊被默认地选择不谈论主题,而只提供一些一般建议。 有兴趣的是三个巨人Nvidia,Apple和Tras,尚未提交任何意见,Musk的Xai仍然保持沉默。 值得注意的是,许多美国“热情的公民”对AI的悲观态度,他们的观点简单而直接。 相比之下,机构,巨人和学术界的仔细和详细的回应完全表现出他们的注意力。 显然,在最近的AI革命中,没有人可以留在这里。 AI巨人的共同声音:美国政府承担重大责任 一般而言,传统科技巨头对AI经济,出口和AI管理控制等主要问题有许多共同的意见,但他们在AI竞争和S中也有自己的重点和差异环境管理。 但是至少一件事仍然相同。 他们认为AI很重要,并且认为美国应该增加其AI政府的应用方法。 Openai:中国的AI应该被锁定,结合芯片和模型 Openai将始终对AI(尤其是中国与美国之间的竞争)保持激进的态度。 在3月中旬的一本15页的书中,Openai将手指指向DeepSeek。 Openai认为,AI行动计划的主要目的是维持美国在全球AI领域的领导,并利用AI来促进经济发展和个人自由。 在文件开始时,OpenAI提出了三个规模原则。 1。AI模型智能水平几乎与用于训练和运行的资源的对数成正比。 Openai说,这表明在理解阶段计算的力量如何扩大情报。这些扩展l在许多数量级,AWS非常准确,因此智能水平的线性增长带来的社会经济价值是极其指数的。 2。使用一定水平的AI能力的成本每12个月降低10次,成本下降将带来使用的流量。 例如,从2023年初的GPT-4到2024年中期的GPT-4O,一代世代的一代下降了近150次。因此,使用AI的成本的下降速度比Moore的定律更令人惊讶。 3。改善AI模型所需的时间将继续缩短。 以前,一台计算机平均花了20年的时间才能以某个基准击败人们。它已缩短到5年;这仅需1到2年,这种趋势不会在短时间内停止。 接下来,在DeepSeek的款项中讲了Openai的尖锐演讲。 强烈地说:美国与中国竞争,试图在2030年成为全球领导者。 这就是为什么最近的R1 Deptseek的模型吸引了人们的注意力 - 并不是因为其表现(尽管R1的识别能力令人惊讶,但它与美国许多主要模型相同),而是反映了当前的竞争。 Openai表示,在关键基础设施或其他高风险方案中使用模型会带来很大的风险,因为它可以操纵模型来造成风险。 写道也没有耻辱:“这些模型在制定非法或有害活动的准则中也更加放松,例如身份欺诈,违反智力财产,反映了对美国知识权的拥有的态度被视为一种优势,而不是不足。” Openai指出,与美国公司相比,中国人工智能公司有很多好处。 例如,该国可以迅速动员各种资源,例如数据,能源,技术人才和筹码行业所需的大量资金。 它可以利用由每个美国国家制定行业法规带来的“法规套利”机会(这些政策将使美国的AI公司承担严重的合规负担)。 它还可以在“版权”中使用版权保护漏洞(它允许其他公司获得相同的数据资源,而无需遵守欧洲和美国知识分子法规的知识法规,这在竞争中属于美国AI实验室。 因此,Openai对政府有以下建议。 一套保护变革自由的监管技术 出口民主AI的一组控制技术 一组促进学习自由的版权技术 一种抓住基础设施机会来推动增长的方法 雄心勃勃的政府AI应用方法 接下来,在“出口控制”部分中,Openai继续建议世界分为三个水平。 1级包括美国盟友,以及承诺遵循美国提出的AI原则和相对较低风险的国家和地区,这可以确保美国AI基础设施(例如芯片)不会被转移到非级别的级别级别和地区。 2级包括具有黑暗历史的国家和地区,这些历史未能防止受控的芯片出口和美国开发的其他智力权转移或3级使用。 第三级包括中国和其他国家和地区的武器禁运。这些应该继续受到严格的AI系统出口控制,包括现有的高级芯片出口控件。 对于第三级国家和地区,OpenAI呼吁严格限制其开发的设备(例如芯片)以及侵犯用户隐私并发展安全风险的模型。 拟人化:控制H20并防止走私! 人类预期会很重要开发削减AI切割模型的能力2 - 4年,尤其是在具有重大安全效应的领域,例如生物武器和网络安全风险。 Claude 3.7十四行诗展示了支持生物武器发展的发展。 拟人化清楚地表明,美国的国家安全达到了非常紧急的水平! 认为,迫切需要保护关键的技术基础设施和智力所有权免受外国威胁,并增强美国的安全。 而且,美国政府应投资于促进美国繁荣的生态系统的强大发展和扩展。 拟人化认为,强大的AI系统将在2026年底或2027年初出现,正如首席执行官达里奥·阿莫迪(Dario Amodei)在他的文章《爱情的机器》中讨论的那样。 这种强大的AI应被视为美国的主要国家所有者。 接下来,拟人化还提到了DeepSeek,这是原始词如下。 今年早些时候发布的DeepSeek-R1强调了强大的AI评估能力的重要性。 它指出,R1可以回答大多数生物武器问题,这是危险的。 因此,美国政府需要快速评估未来的模型,无论是外国还是国内,都有安全特征。 同样,人类强调,美国应该加强出口控制并扩大其领导能力。 1。控制H20芯片 当前的出口控件不适用于H20,这是2024年推出的高内存芯片,计划在中国出售,可以用于培训和运行强大的模型。尽管这些芯片在初始培训中不如H100好,但它们同样不错。因此,特朗普政府需要关闭这一漏洞。 2。与政府政府签署协议,以防止筹码非法流通作为为美国公司托管超过50,000个芯片数据中心的要求,美国应要求高风险的国家和地区遵守政府到政府的协议,这些协议要求:(1)他们的控制系统控制到美国; (2)采取措施防止流向中国的筹码; (3)停止国内公司与中国之间的合作。 3。仔细审查并提高第二个国家的门槛和rehey 目前,传播规则允许未经分析的第二个国家和地区的高级筹码订单(少于1,700 H100,订单约为4000万美元)。这些订单不属于该规则的上限,而不论买方如何。 人类人士说,这些阈值正在走私风险,因此建议政府考虑减少在没有观众的第二个国家和地区购买的H100的数量。 4。增加出口行业局SECU的财政支持野性(bis) 元:保护美国的开放资源人工智能! Meta强调了开放资源AI的重要性:开源AI是美国维持这种技术利益,促进变化和经济发展的技术收益的关键。 例如,说这些释放的消息表明,即使已经实施了封闭源政策,但它并不能阻止中国技术的传播。 梅塔说,为了赢得中国比赛,美国必须通过开放的AI资源来促进和鼓励出口开放的AI资源。 “开放资源模型对于美国赢得与中国的AI竞争并确保美国在人工智能领域的统治地位很重要。” 认为,如果强加了模型的开放模型中的出口控件,美国将完全退出这项比赛,这将为中国公司提供机会Evelop the AI的全球标准并将其价值植入全球技术生态系统中。 梅塔强调,全球竞争优势的国家是分散的和公开的变化。阻止中国通过出口控制获得美国模式是无效的,只会削弱美国的利益。 例如,它说,DeepSeek的发布表明,即使已经实施了封闭式货币政策,但并不能阻止中国技术的传播。 Meta提出了三个基本建议,以确保美国在AI中继续领导: 1。保护和促进美国的开放资源AI 建立开放资源AI的导出,并避免将控件导出到打开模型。政府重视采用开放资源人工智能以提高政府效率,降低成本并提高国家安全。 2.减少变更障碍并保持全球技术的领导 简化批准的能源和数据中心的构建的过程并促进核能技术的先进发展将防止在各个州降级AI法规,并防止障碍变化。 加速宽带和潜艇光线电缆扩展,并优化联邦土地上光纤网络的批准过程。 3。捍卫全球技术利益 保护美国业务免受欧盟等地区的高罚款和歧视管理。 应对AI的欧盟AI法案的负面影响:避免过多的欧盟法规破坏美国公司的竞争。防止外国政府通过反托拉斯调查限制美国技术公司的变化,整合和收购。 与上述充满亮点的演讲相比,两个巨人的探索是相对正式的。 Google:加强AI投资和国际合作 Google建议政府应专注于三个主要AREAS:AI投资,AI政府活动和国际合作。 1。增加对AI的投资 政府和行业在一起;考虑到国家安全和公司利益,实施平衡的控制政策;继续资助AI的基础研究和发展;并制定与变革一致的国家政策框架。 2。政府的AI AI申请 政府应改善公共采集政策,促进云解决方案中的互操作性和数据可移植性,简化获取过程并促进数字化转型。 制定单个数据和压迫者的标准,并建立敏捷的同意过程。 同时,加强私营部门的合作,以确保关键的基础设施和安全网络,并采用多云和多模型的国家安全方法。 3。促进与世界各地变化一致的AI发展路径 类似于Openai,Google还促进了避免AI培训的限制,并需要“合理使用”知识版权。 Google希望促进使用可用于公众可用数据的权利,包括版权数据,包括其竞争对手。 据报道,Google已使用公共版权数据培训了许多模型,该数据被指控不允许版权所有并在培训前支付这笔钱。 美国法院尚未排除该原则“公平尚未尚未有效地保护AI开发人员免受智力要求的影响)。 微软:成为政府的可靠合作伙伴 微软宣布愿意成为可靠的政府伙伴,并提出以下三个建议: 1。速度AI在美国的形成 2.保护公众并加强国家安全 3。投资科学研究并建立基于科学的AI标准 微软认为,为了继续维持美国的变革和领导全球AI领域,有必要在政府与私营部门之间进行深入协调,并利用并发挥美国在该国的全部潜力。 此外,有必要依靠AI的所有技术堆栈之间的企业之间的持续合作。这些业务,从芯片设计师到超大的云服务提供商,然后再到AI模型的开发人员,形成了一个完整的AI生态系统。 此外,政府和企业都需要访问领先的行业和开放资源模型,以最佳平衡绩效,安全性和成本。 此外,美国还应该投资于贫困的研究和建造常见的AI系统。 特朗普:Aisketch行动计划 2025年1月23日早些时候,美国宣布了由新总统特朗普签署的美国总统行政命令(14179年行政命令),旨在消除美国领导人在美国领导人的障碍AI领域。 特朗普在文章结尾的签名 根据该高管的命令,科学技术政策办公室(OSTP)于2025年2月6日通过国家协调办公室(NCO)和国家科学基金会发布了有关制定AI行动计划(RFI,信息请求)的信息请求。 要求评论的截止日期是3月15日。 通过此RFI,OSTP和NITRD NCO寻求公众的意见,包括学者,行业团体,私营部门,州,地方和部落政府团体以及任何其他有关方面。 在这些“ 10,000个建议”中,个人意见达到了9,313,显示了人们对该政策重要文件的高期望。 当然,对最终计划的最重要影响是重型公司。 “特朗普在灵魂中的三个问题” OSTP的现任总监是Michael Kratsios。 去年12月22日,特朗普任命了技术员迈克尔·克尔(Michael Kr)ATSIOS担任OSTP总监和总统技术助理。 在3月26日的白宫公开信中,特朗普向迈克尔·克拉西奥斯(Michael Kratsios)问了有关灵魂的三个问题。 首先:美国如何确保它继续在AI等技术的钥匙和新兴领域中维持世界无与伦比的领导力,有关核科学和技术的信息数量,并保持其潜在竞争对手的技术优势? 第二:如何恢复美国的科学和技术活动 - 追求真相,减轻行政负担,并使研究人员能够实现成功的发现? 第三:如何确保科学发展和技术变革推动经济增长并改善所有美国人的生活?在AI中的10,068次观点中,这三个问题的答案被隐藏了。 参考: https://techcrunch.com/2025/03/13/google-calls-for-heakened版权所有 - in-i-ii-ai-policy-提议/ https://www.nird.gov/coordination-areas/ai/90---9088-响应/返回SOHU以查看更多信息
Copyright © 2024-2026 必发官网登录手机版_必发娱乐游戏官网 版权所有

网站地图

备案号: