网络浏览器最初并非搜索引擎或助手 — 它们只是加载网页的简单工具。几十年来,它们增加了标签页、扩展、内置搜索和其他功能,使其成为在线生活的中心。
\ 现在,人工智能(AI)驱动的浏览器迈出了下一步。它们可以总结内容、回答问题,并尝试预测用户需求。虽然它们能提供智能结果并节省时间,但这种便利也带来了新的隐私和安全风险。
AI浏览器的行为类似于标准网络浏览器,但它具有人工智能层,可以代表用户阅读和与网络内容互动。它不仅仅是加载页面,还可以解释文本,提取重要信息,用简单语言回答问题,并执行过去需要多个表格和搜索才能完成的多项任务。
\ 将它们视为普通浏览器和对话助手的混合体会更容易理解。这些工具将传统的页面渲染与聊天界面相结合,可以总结文章、引用来源并跟进问题。它们旨在将研究过程缩减为几个快速提示,而不是数十次点击。
\ 美联社-NORC公共事务研究中心的一项民调发现,60%的美国人至少有时会使用AI查找信息,因此AI浏览器利用了这一需求。已经在使用的例子包括Perplexity的Comet和ChatGPT的Atlas。它们的主要功能包括:
\ 这些功能中的每一个都改变了人们浏览的方式。曾经耗时的任务变得更快,但它们也将控制权转移到了浏览器的AI层。
用户打开的每个页面、输入的查询或AI总结的片段都可能成为浏览器处理的数据,并根据设置转发到外部AI服务器。这些信息可能包括浏览历史、页面内容、表单输入和搜索查询 — 如果这些数据离开设备,攻击者或第三方可能会利用它们。
\ 这种能力创造了一个全新的攻击面。例如,攻击者可以制作看似无害但包含指令的网络内容,这些指令会诱骗助手执行操作或泄露敏感信息 — 这类缺陷被称为提示注入。安全审计表明,AI浏览器容易受到间接提示注入攻击的影响,这可能使恶意页面提升权限或访问已认证的会话。
\ 另一个安全风险是数据中毒。如果AI的知识库是基于网络内容构建的,攻击者可以植入虚假文档来扭曲模型行为,从而影响其输出。最近的分析表明,即使是针对大型语言模型(LLMs),模型中毒也可能有效。在向拥有130亿参数的LLMs注入仅250个恶意页面时,实验证明成功改变了输出。因此,AI浏览器可能会无限期地与LLMs一样脆弱。
\ LLMs也容易产生看似合理但不正确的结果,这被称为幻觉。在代表用户行动的AI浏览器中 — 无论是起草电子邮件还是填写表格 — 这些听起来合理的错误可能会造成真正的伤害。它可能提供不正确的指示或建议。研究人员和从业者已经记录了模型错误导致严重操作失败和误导性输出的实例。
AI浏览器可以使日常网络任务明显更快速、更易于访问。它们将长文章转化为快速摘要,让人们提出后续问题,并可以自动化重复性浏览任务。所有这些都有助于提高生产力,使网络对不同需求的人更易于使用。由于它使用户的生活更轻松,采用率已经相当可观。事实上,现在63%的网站至少接收到一些来自AI聊天机器人的流量。
\ 然而,这些收益也将数据、决策和信任集中在单一的、通常不透明的层中。简而言之,便利和权力被交给了用户无法完全控制或无法轻易审计的软件。
\ 这些问题可能为日常用户创造复杂情况,因为它们增加了私人搜索被暴露或滥用的可能性。对于使用它的员工来说,它创造了脆弱的依赖关系。加剧风险的是,许多远程工作者已经缺乏基本的安全意识,近25%的远程员工不了解其设备的安全协议。人们可能会停止对自动化输出进行二次检查,而小的模型错误可能会级联成代价高昂的错误。
\ 鉴于这些后果,今天的理性选择是谨慎。AI浏览器不应该全面替代常规浏览或敏感工作流程。其使用应该受到限制,并被视为在采取行动前需要验证的东西。
当一个人决定使用AI浏览器时,他们应该通过以下步骤限制提供给它的内容:
AI浏览器承诺更快、更智能的浏览体验。然而,它们也带来了不确定性。要深思熟虑地使用这些工具,而不是本能反应,并保持适度的怀疑态度。谨慎、适度的方法将比盲目热情更好地服务于用户。