Notebookcheck Logo

Opera 成为首个可访问本地 LLM 的网络浏览器

Opera 宣布可下载和使用本地 LLM(图片来源:Opera)
Opera 宣布可下载和使用本地 LLM(图片来源:Opera)
流行的网络浏览器之一 Opera 已宣布可以下载和使用本地 LLM(大型语言模型)。这项新功能目前已在 Opera One 的开发者流中推出。因此,运行开发者版本的用户现在可以选择和使用来自 50 多个语系的 150 多个模型。
AI Software

开发者流中的 Opera One 用户将获得重大升级。最新更新允许用户下载并在本地使用 LLM。目前,可供选择的模型来自 50 多个系列,有 150 多种不同的模型可供用户下载并在电脑上运行。

其中一些著名的模型包括来自谷歌的 Gemma,来自 Meta 的 LLaMAMixtral from Mistral AILMSYS 的 Vicuna。.这项新功能是人工智能功能下降计划的一部分。也就是说,运行开发者版 Opera One来测试更新。

即便如此,Opera 还是成为第一个允许用户下载和使用本地 LLM 的网络浏览器。对于那些想知道的人来说,在本地运行这些模型通常能提供全面的控制、减少延迟,最重要的是,能更好地保护隐私。但你的电脑确实需要满足一些要求。

例如,该网络浏览器公司表示,本地 LLM 的每个变体都需要超过 2 GB 的存储空间。至于运行模型,Opera 表示它使用的是 Ollama 开源框架。这也意味着浏览器中目前可用的所有模型都是 Ollama 库的子集。好的一面是,Opera 还计划加入其他来源的模型。

并非所有用户都能从这次更新中受益。不过,对于那些想在本地测试不同 LLM 的用户来说,这是个好消息。您可以使用内置的 人工智能助手称为 Aria 的内置人工智能助手。自去年 5 月起,普通版本的浏览器就可以使用它了。

从亚马逊购买由人工智能驱动的 OBSBOT Tiny 2 网络摄像头

资料来源

Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 04 > Opera 成为首个可访问本地 LLM 的网络浏览器
Abid Ahsan Shanto, 2024-04- 4 (Update: 2024-04- 4)