
Sigma浏览器有限公司在周五发布消息,推出了一款主打隐私保护的网络浏览器,这款浏览器搭载了本地人工智能模型,所有数据都不会上传到云端。
不少浏览器厂商正紧跟AI趋势,把主流AI模型融入用户体验。主流浏览器的AI原生功能涵盖谷歌Chrome搭载的Gemini,还有Mozilla Firefox集成的AI模型。AI模型开发方也推出了专属的AI原生浏览器,像Perplexity AI打造的Comet,以及OpenAI集团PBC推出的Atlas。
这些浏览器一般会把用户的查询与问题传输至云端AI系统,从而给出答案并生成内容。
相比之下,Sigma旗下的Eclipse浏览器搭载了本地大语言模型,支持离线运行,并且能将用户的所有数据、问题及对话全部存储在本地设备中。该公司表示,这种模式能够规避借助第三方服务时可能出现的答案被篡改或用户信息外泄的风险。
Sigma联合创始人Nick Trenkler称:“AI的能力已十分强大,但其发展也呈现出集中化和高成本的特点。我们认为,用户不应为了使用先进的AI技术,就不得不牺牲自身隐私,或是持续支付云服务费用。”
公司称,Eclipse内置的LLM未经过滤,不存在意识形态或内容方面的限制,也就是说它不会倾向于特定类型的回应。这样的设计选择符合Sigma的初衷,即让用户能够完全掌控AI交互体验,不受主题或观点的约束。
更新还包括本地PDF处理功能,允许用户直接在计算机上分析和处理文档。
Sigma的Eclipse并非首个支持本地LLM的浏览器。2024年,Brave Software Inc.旗下浏览器为其Leo AI助手新增了“自带模型”功能,其中就包含与本地运行LLM的基础集成;不过该过程可能略带技术门槛,因为需要安装Ollama或其他本地AI推理工具。
若想让本地模型——尤其是参数规模在70亿左右的中等模型——顺畅运行,硬件配置上一般得满足至少16至32GB的内存要求。此外,还需要一块较新的显卡,像英伟达的入门款RTX 3060就能用,但更推荐大家至少配备RTX 4090。要是运行更大体量的AI模型,那对内存容量和GPU性能的要求还会更高。
为用户提供无需自行准备的本地优先大语言模型(LLM),或许能让浏览器变得更有吸引力。相关公司称,此次发布是朝着更透明的用户可控AI方向迈进的一步,能让用户在保障隐私与可访问性的同时,兼顾模型的性能与能力。