opera团队新出的浏览器 (opera内核的浏览器)

opera版本浏览器,opera内核的浏览器

今天是Opera的高光时刻!Opera 成为第一个提供对本地 AI 模型的内置访问的主要浏览器。Opera公司今天宣布,现在允许用户在本地计算机上*载下**和使用大型语言模型(LLM)。这一功能首先向获得开发人员流更新的Opera One用户推出,允许用户从50多个系列的150多个模型中进行选择。

opera版本浏览器,opera内核的浏览器

这些模型包括Meta的Llama、Google的Gemma和Vicuna。该功能作为Opera AI Feature Drops计划的一部分提供给用户,使用户可以提前访问一些AI功能。

要测试任何可用的 LLM,用户需要升级到最新版本的 Opera Developer 并激活该功能,*载下**模型变体后,它将替换 Aria,直到用户重新打开它或开始与 AI 进行新的聊天。

opera版本浏览器,opera内核的浏览器

Opera表示,它正在浏览器中使用Ollama开源框架在用户的计算机上运行这些模型。本地 LLM 允许直用户接在机器上处理提示,而无需将数据发送到服务器,在浏览器中添加对它们的访问权限可以更轻松地访问本地 AI,并使用户能够在本地、完全隐私甚至离线处理他们的提示。目前,所有可用的模型都是Ollama库的子集,但未来,该公司计划包含来自不同来源的模型。

每个变体都会占用本地系统上超过2GB的空间,因此用户应该注意可用空间,以免存储空间不足。值得注意的是,Opera在*载下**模型时没有采取措施来节省存储空间。

opera版本浏览器,opera内核的浏览器

Opera副总裁Jan Standal表示:“Opera首次提供了直接在浏览器中访问大量第三方本地LLM的功能。随着用户越来越专注于手头的任务,预计其规模可能会缩小。”如果您计划在本地测试各种模型,此功能将非常有用,但如果您想节省空间,有许多在线工具,例如Quora的Poe和HuggingChat,可用于探索不同的模型。

自去年以来,Opera一直在探索人工智能驱动的功能。去年5月,他们在侧边栏中推出了名为Aria的助手,并于8月将其引入了iOS版本。今年1月,Opera表示,随着欧盟数字市场法案(DMA)要求苹果放弃对移动浏览器的强制性WebKit引擎要求,他们正在为iOS构建一款具有自己引擎的人工智能浏览器。这一举措将为个人用户带来更多选择,同时也是人工智能技术发展的趋势之一。