
埃隆·马斯克所谓的政府效率部门(DOGE)的核心基本假设是:美国应该像创业公司一样运营。到目前为止,这主要意味着混乱的解雇和急于推翻法规。但在2025年,没有一份宣讲材料不会过度使用人工智能,DOGE也不例外。
人工智能本身并不理所当然地值得被抨击。它有真正的用途,可以创造实际效率。在工作流程中引入人工智能本身并不inherently不当,尤其是如果你意识到并能够管理其局限性。然而,目前尚不清楚DOGE是否接受了这种细微差别。如果你手里有一把锤子,所有东西看起来都像钉子;如果你能接触到国家最敏感的数据,所有东西看起来都像输入。
无论DOGE走到哪里,人工智能都紧随其后。鉴于该组织的不透明性,关于它究竟如何使用以及在哪里使用,很多仍然未知。但本周的两个揭示显示了DOGE的人工智能野心是多么广泛——并且可能是错误的。
在住房和城市发展部,一名大学本科生被委托使用人工智能找出HUD法规可能超出基本法律的最严格解释。(机构传统上在立法模糊时拥有广泛的解释权,尽管最高法院最近将这种权力转移给了司法分支。)这实际上是人工智能可以发挥作用的任务,它可以比人类更快地从大量文件中综合信息。存在幻觉的风险——更具体地说,模型可能会生成实际上并不存在的引用——但无论如何都需要人类批准这些建议。从某种程度上说,这正是生成式人工智能目前相当擅长的:以系统的方式完成乏味的工作。
然而,要求人工智能模型帮助瓦解行政国家是有害的。(除了这个事实;这取决于你是认为低收入住房是社会公益,还是更倾向于"绝不在任何后院"类型。)人工智能实际上并不"了解"任何关于法规或它们是否符合法规的最严格可能解读,即使是经验丰富的律师也会对此产生分歧。它需要被输入详细说明要查找什么的提示,这意味着你不仅可以影响裁判,还可以为他们编写规则手册。它也极其渴望取悦他人,甚至会自信地编造东西,而不是拒绝回应。
无论如何,这是最快的途径,可以最大限度地削弱一个主要机构的权力,并有可能掺杂一些胡说八道。
至少这是一个可以理解的用例。同样不能这么说的是与DOGE相关的另一个人工智能努力。正如WIRED周五报道的,一名早期DOGE招聘人员再次寻找工程师,这次是为了"设计基准并在联邦机构的实时工作流程中部署AI代理"。他的目标是消除数万个政府职位,用代理式人工智能取代,并"解放"工人从事表面上"更高影响力"的职责。
即使你认为政府应该基本上由机器人运营,这里的问题也更加明确。AI代理仍处于早期阶段;它们远未达到这种要求。它们可能永远都不会。这就像是让一个蹒跚学步的孩子操作重型机械。
DOGE并非首次向美国政府引入人工智能。在某些情况下,它加速或重新启动了早于它的人工智能项目。总务管理局已经在内部聊天机器人上工作了数月;DOGE只是将部署时间表调到了荒谬的速度。国防部几十年前就设计了帮助自动减少人员的软件;DOGE工程师已经为自己的目的更新了AutoRIF。(社会保障管理局最近也引入了一个前DOGE聊天机器人,值得在此提及,只是为了让你参考那个令人遗憾的培训视频。)
尽管如此,即使是这些现有项目也反映了围绕DOGE使用人工智能的担忧。问题不在于人工智能本身。而是在后果可能具有毁灭性的情境中全速部署。问题在于围绕哪些数据被输入到哪里以及使用什么保障措施缺乏清晰度。
人工智能既不是妖魔,也不是万能药。它在某些方面擅长,在某些方面不擅长。但DOGE正在将其用作达到破坏性目的的不完美手段。它正在通过提示走向一个中空的美国政府,其基本职能几乎不可避免地将不得不由——惊讶!——有关联的硅谷承包商来承担。
人工智能究竟能如何实际改善政府效率?在下方留言或将你的想法发送至mail@wired.com。