Skip to the content.

From 33 items, 14 important content pieces were selected


  1. 《金融时报》报道 DeepSeek V4 AI 模型将于下周发布,可能具备图像和视频生成能力。 ⭐️ 9.0/10
  2. Qwen 3.5-35B-A3B AI 模型表现惊艳,在本地部署任务中取代了更大的模型。 ⭐️ 8.0/10
  3. 谷歌研究发现思维链长度与 LLM 准确率呈负相关,提出新的深度思考比率指标。 ⭐️ 8.0/10
  4. ChatGPT 周活跃用户近 10 亿,付费订阅用户突破 5000 万 ⭐️ 8.0/10
  5. 青龙面板遭.fullgc 挖矿木马植入,导致 CPU 占用率达 800% ⭐️ 8.0/10
  6. Meta 放弃高端自研 AI 芯片’奥林匹斯’,转向 1350 亿美元硬件投资 ⭐️ 8.0/10
  7. Obsidian Sync 推出无头客户端,支持程序化访问知识库。 ⭐️ 7.0/10
  8. 交互式解释被提出作为解决智能体工程中认知债的方案 ⭐️ 7.0/10
  9. 参数少于 100 的微型 Transformer 模型实现 10 位数加法 100%准确率 ⭐️ 7.0/10
  10. Micro Diffusion:约 150 行 Python 代码实现的极简离散文本扩散模型 ⭐️ 7.0/10
  11. 裸机 AI:通过 UEFI 应用程序直接启动进入 LLM 聊天,无需操作系统 ⭐️ 7.0/10
  12. Qwen3.5-35B-A3B 在消费级 Mac 上取代双模型智能体方案,单模型处理推理与编码任务。 ⭐️ 7.0/10
  13. Google Chrome 默认下载 4GB 本地 AI 模型 Gemini Nano ⭐️ 7.0/10
  14. 韩国国税厅误曝硬件钱包助记词,导致 480 万美元加密货币被转走 ⭐️ 7.0/10

《金融时报》报道 DeepSeek V4 AI 模型将于下周发布,可能具备图像和视频生成能力。 ⭐️ 9.0/10

据《金融时报》报道,DeepSeek 将于下周发布其备受期待的 V4 AI 模型,据报道该模型可能包含图像和视频生成能力。这代表着对 OpenAI 和 Anthropic 等美国 AI 竞争对手的重大新挑战。 这很重要,因为如果 DeepSeek V4 在保持开源的同时提供原生的多模态生成能力,将可能使目前主要由闭源实验室控制的高级 AI 功能民主化。这样的发布可能会扰乱当前的 AI 市场格局,并加速开源 AI 社区的创新。 社区讨论显示对发布确切时间的怀疑,许多人指出 V4 已经’即将发布’数月了。关于’图像和视频生成’是指原生多模态生成还是仅指图像/视频输入能力也存在争论,一些人希望看到真正的’全模态’模型。

reddit · r/LocalLLaMA · Nunki08 · Feb 28, 11:25

背景: DeepSeek 是一家中国 AI 公司,已开发了一系列大型语言模型,其中 DeepSeek-V3 是其先前的主要版本。多模态 AI 指的是能够同时理解和处理多种类型信息(如文本、图像、音频和视频)的人工智能系统。图像和视频生成能力代表了先进的多模态功能,这些功能主要通过 OpenAI(DALL-E、Sora)和 Google(Veo)等公司的专有模型提供。

参考链接

社区讨论: 社区情绪复杂,既有对潜在创新的兴奋,也有对发布时间的怀疑。主要观点包括:希望此次发布能’撼动市场’并可能降低 GPU 价格,怀疑’生成’是否真的指原生多模态能力而非仅输入处理,以及担心模型是否会保持真正的开源。几位评论者指出 V4 已被期待数月,期间不断有’下周’发布的公告。

标签: #artificial-intelligence, #deepseek, #multimodal-ai, #open-source, #ai-competition


Qwen 3.5-35B-A3B AI 模型表现惊艳,在本地部署任务中取代了更大的模型。 ⭐️ 8.0/10

一位开发者报告称,Qwen 3.5-35B-A3B 模型已取代了体积大得多的 GPT-OSS-120B,成为其进行开发和自动化任务的主要 AI 助手,尽管其规模仅为后者的三分之一。该模型在代码分析、通过 n8n 进行工作流自动化以及使用自定义模型上下文协议(MCP)服务器进行工具调用等方面表现出色。 这标志着本地运行的大型语言模型在效率上取得了重大飞跃,使得高性能 AI 助手无需依赖云 API 或庞大的计算资源即可使用。它使开发者和企业能够完全在本地构建复杂的、私有的 AI 自动化系统,这对于数据安全和成本控制至关重要。 该模型采用混合架构,集成了线性注意力机制和稀疏专家混合(MoE)模型,以提高推理效率。一个被提及的显著特点是其冗长的“思考”过程,但正如社区讨论所示,可以通过服务器参数或修改聊天模板来禁用此功能,从而加快响应速度。

reddit · r/LocalLLaMA · valdev · Feb 28, 14:32

背景: Qwen 是阿里巴巴云开发的一系列大型语言模型。Qwen 3.5-35B-A3B 中的“A3B”后缀可能指代一个特定的变体或微调版本。模型上下文协议(MCP)是一个标准化框架,允许 AI 模型实时连接并与外部系统和数据源进行交互。n8n 是一个流行的低代码工作流自动化平台,用于可视化地创建集成各种应用程序和服务的自动化流程。

参考链接

社区讨论: 社区情绪 overwhelmingly 积极,用户们确认了该模型在助手和自动化任务上的强大性能。关键的讨论点包括与其他 Qwen 模型规模(如 27B 模型)的比较、禁用思考模式以加速推理的方法,以及关于其性能是否值得为长对话付出可能更慢处理时间的辩论。社区也对在消费级硬件上本地运行如此强大模型的可行性感到兴奋。

标签: #LLM, #Model-Comparison, #Local-Deployment, #Qwen, #AI-Assistant


谷歌研究发现思维链长度与 LLM 准确率呈负相关,提出新的深度思考比率指标。 ⭐️ 8.0/10

谷歌研究论文在多个推理基准上测试了 8 个模型变体,发现思维链的 token 长度与答案准确率之间存在平均-0.54 的相关性,这意味着更长的推理链通常表明模型陷入混乱而非更好的推理。研究人员提出了一种名为深度思考比率的新指标,用于衡量在模型各层中经历深度处理的 token 比例,该指标与准确率显示出更强的正相关性(0.82)。 这一发现挑战了关于更长推理链能带来更好 LLM 结果的普遍假设,对提高推理效率和准确性具有重要意义。所提出的 DTR 指标及相关的 Think@n 采样策略,使模型能够在降低约 50%计算成本的同时,获得同等或更好的准确率,这对于计算资源受限的本地推理尤其有价值。 DTR 指标通过追踪 token 预测在 Transformer 各层中的稳定情况来工作:早期稳定的 token(如常见填充词)被视为“浅层思考”,而在深层被修正的 token 则表明“深度思考”。在实际应用中,Think@n 策略对多条推理路径进行采样,仅根据前 50 个 token 估算 DTR,保留前 50%的高 DTR 样本,并使用多数投票法,在测试中将 token 消耗从 35.56 万降至 18.19 万,同时将 GPT-OSS-120B-medium 在 AIME 2025 基准上的得分从 92.7%提升至 94.7%。

reddit · r/LocalLLaMA · Top-Cardiologist1011 · Feb 28, 16:19

背景: 思维链提示是一种技术,指示大型语言模型在生成最终答案前先输出中间推理步骤,该技术已被广泛采用以提升复杂推理任务的性能。基于 Transformer 的 LLM 通过多个顺序层处理 token,每一层都基于前一层的上下文来细化 token 的表征。通过观察 token 预测在这些层中的演变来测量“思考”程度,是一种超越表面输出、理解模型内部动态的新方法。

参考链接

社区讨论: 社区讨论凸显了对推理模型中“螺旋式”问题的认识,即模型不断自我怀疑而非坚持一条解决路径。社区对基于 DTR 估计进行早期终止以节省本地推理计算量的实际应用表现出浓厚兴趣,一些用户指出他们已经在使用类似的启发式方法,如检测重复模式。对于在实际推理引擎中实现精确的逐层 token 追踪的可行性存在怀疑,但对其带来的效率提升潜力则被广泛认可。

标签: #LLM, #Reasoning, #Chain-of-Thought, #Model-Evaluation, #Research


ChatGPT 周活跃用户近 10 亿,付费订阅用户突破 5000 万 ⭐️ 8.0/10

OpenAI 披露,ChatGPT 的周活跃用户数已达 9 亿,较 18 个月前的 2 亿增长了 350%,正逼近 10 亿大关。同时,个人付费订阅用户数突破 5000 万,占比超过 5%,且 2026 年 1 月和 2 月的新增订阅量创下历史新高。 这一爆炸性增长表明 ChatGPT 已实现大规模主流应用,并巩固了其作为主导性消费级 AI 平台的地位。庞大的付费用户群,加上与苹果等主要科技生态系统的战略集成,标志着它已成功从一个免费的新奇工具,转型为一个深度嵌入、能产生收入且具有广泛行业影响力的服务。 用户增长伴随着平台集成的深化,包括通过 iOS 18 与 Siri 的深度集成。此外,苹果计划在 iOS 26.5 中引入 Google Gemini,并正与 Anthropic 合作,在其集成开发环境 Xcode 内提供 AI 编程支持。

telegram · zaihuapd · Feb 28, 03:23

背景: ChatGPT 是由 OpenAI 开发的对话式 AI 聊天机器人,以其能根据用户提示生成类人文本而闻名。Xcode 是苹果公司的集成开发环境(IDE),用于为 macOS、iOS、iPadOS、watchOS 和 tvOS 开发软件。Anthropic 是一家专注于 AI 安全与研究的企业,开发了 Claude 等 AI 系统,其技术正被集成到 Xcode 等开发者工具中以提供编程辅助。

参考链接

标签: #AI, #ChatGPT, #User Metrics, #Apple Integration, #Market Adoption


青龙面板遭.fullgc 挖矿木马植入,导致 CPU 占用率达 800% ⭐️ 8.0/10

2026 年 2 月 7 日,多名用户发现青龙面板服务器被名为.fullgc 的挖矿木马感染,导致 CPU 占用率异常飙升至 800%。该木马通过篡改 config.sh 配置文件实现持久化,并能根据系统架构自动下载恶意程序。 此次攻击针对的是开发者和运维团队广泛使用的开源任务管理工具,直接影响服务器性能、稳定性和运营成本。它暴露了运行此类面板的公网服务器面临的重大安全风险,并凸显了加密劫持对云基础设施的持续威胁。 安全分析判定该木马属于 SusMiner 家族,主要通过连接 XMR(门罗币)矿池进行非法加密货币挖矿。主要攻击目标是暴露在公网 IPv4 环境下的服务器,建议用户检查/ql/data/db/路径下的隐藏文件。

telegram · zaihuapd · Feb 28, 13:16

背景: 青龙面板(QingLong Panel)是一个基于 Docker 的流行开源定时任务管理面板,支持 TypeScript、JavaScript、Python 和 Shell 脚本,常用于自动化各种在线任务和脚本执行。加密劫持或加密货币挖矿木马是一种恶意软件,它秘密利用受害者的计算资源(CPU/GPU)为攻击者挖掘加密货币以牟利,通常会导致性能下降和能源成本增加。

参考链接

标签: #security, #malware, #server-security, #cryptojacking, #devops


Meta 放弃高端自研 AI 芯片’奥林匹斯’,转向 1350 亿美元硬件投资 ⭐️ 8.0/10

Meta 已正式终止其最先进的自研 AI 芯片(代号’Olympus’)的开发,原因是技术复杂性和制造风险,转而专注于开发简化版本。同时,公司承诺到 2026 年的资本支出最高达 1350 亿美元,主要用于采购芯片和服务器,并与 AMD 达成了 600 亿美元的采购协议,还与英伟达和谷歌签署了供应或租用合同。 这一战略转变突显了即使是科技巨头,在与英伟达等专业芯片制造商竞争时也面临巨大困难,这可能会强化后者的市场主导地位。Meta 将巨额资本重新分配给外部硬件供应商,标志着其为保障 AI 雄心所需算力而采取的务实策略,这将显著影响半导体供应链和投资格局。 被放弃的’Olympus’芯片是 Meta 的’训练与推理加速器’(MTIA)项目的一部分,该项目在软件稳定性和性能方面遇到了挑战。与 AMD 新的 600 亿美元协议据报道涉及定制化的 GPU,这使其与 Meta 和英伟达的协议有所不同。

telegram · zaihuapd · Feb 28, 23:11

背景: Meta 的 MTIA(Meta 训练与推理加速器)是一个自研芯片项目,旨在提高训练和运行 AI 模型(特别是推荐系统)的效率并降低成本。开发有竞争力的 AI 芯片需要在硬件架构、软件栈优化以及获取先进制造产能方面克服巨大挑战。谷歌(凭借 TPU)和亚马逊(凭借 Trainium/Inferentia)等公司也采取了类似的自研芯片策略,以减少对英伟达等供应商的依赖。

参考链接

标签: #AI Hardware, #Semiconductors, #Meta, #Supply Chain, #Capital Investment


Obsidian Sync 推出无头客户端,支持程序化访问知识库。 ⭐️ 7.0/10

热门笔记应用 Obsidian 的付费同步服务 Obsidian Sync 发布了一个无头客户端。这个新客户端允许开发者在无需图形用户界面的情况下,以编程方式访问和自动化 Obsidian 知识库。 此次发布极大地扩展了 Obsidian 在个人笔记之外的实用性,使其能够支持服务器端自动化、与其他工具的集成以及自定义工作流的创建。它将 Obsidian 知识库转变为可编程的数据源,可用于自动化博客发布、检索增强生成(RAG)系统和命令行工具等任务。 该无头客户端与新发布的 Obsidian CLI 工具协同工作,允许自动化脚本直接与已同步的知识库交互。此功能是付费的 Obsidian Sync 服务的一部分,不适用于免费或仅限本地的知识库。

hackernews · adilmoujahid · Feb 28, 16:31

背景: Obsidian 是一款流行的、基于文件的笔记应用,它使用存储在本地称为“知识库”的文件夹中的 Markdown 文件。Obsidian Sync 是一项付费服务,用于在用户设备间同步这些知识库。“无头”架构在内容管理系统中很常见,它将后端(数据和逻辑)与前端(用户界面)分离,允许通过 API 或命令行工具而非图形界面进行访问。这种解耦为自动化和集成提供了更大的灵活性。

参考链接

社区讨论: 社区反应非常积极,开发者们立即指出了其实际应用场景。用户们强调了其在博客发布、基于知识库内容构建 RAG 系统以及服务器端自动化方面的用例。一位评论者指出这是他们“最想要”的功能,而另一位则分享了一篇详细描述实验性实现的博客文章。该项目的一位贡献者也表示愿意回答问题。

标签: #obsidian, #automation, #markdown, #sync, #developer-tools


交互式解释被提出作为解决智能体工程中认知债的方案 ⭐️ 7.0/10

Simon Willison 提出了’认知债’这一概念,它会在开发者对 AI 生成的代码失去理解时不断累积,并建议构建交互式解释作为偿还这种债务的方法。他通过创建一个动画 HTML 页面来演示这种方法,该页面直观地解释了由 AI 智能体构建的 Rust 词云生成器中使用的’阿基米德螺旋放置’算法。 这很重要,因为随着 AI 智能体编写更多的生产代码,团队可能会失去维护、调试和扩展系统所需的深刻理解,这会像技术债一样拖慢开发进度。交互式解释为在智能体工程工作流中保持人类监督和理解提供了一种实用技术,确保代码库不会变成无法理解的黑盒。 交互式解释是通过提示 Claude Code 创建一个带有动画滑块的 HTML 页面来构建的,该页面逐步可视化词语放置算法,允许用户暂停、调整速度和逐帧查看。这种方法建立在’线性演练’模式之上(即 AI 智能体提供代码的顺序解释),但增加了可视化以创建对复杂算法的直观理解。

rss · Simon Willison · Feb 28, 23:09

背景: 智能体工程涉及设计系统,使 AI 智能体能够自主推理、规划和行动以完成任务,例如编写代码。认知债是一个类似于技术债的新概念,描述了不完全理解 AI 生成代码如何工作所累积的成本。随着 AI 辅助开发的加速,开发者面临着维护他们未亲自编写的代码库的理解的挑战,这正是交互式解释等模式变得有价值的地方。

参考链接

标签: #agentic-engineering, #cognitive-debt, #ai-assisted-development, #code-understanding, #software-maintenance


参数少于 100 的微型 Transformer 模型实现 10 位数加法 100%准确率 ⭐️ 7.0/10

一项研究项目证明,通过使用数字 token 和手动权重选择,参数少于 100 的 Transformer 模型可以在两个 10 位数的加法运算上达到 100%的准确率。与通过传统方法训练的优化模型相比,这实现了参数数量一个数量级的减少。 这项工作挑战了关于 Transformer 执行精确算术运算所需最小复杂度的假设,可能为更高效的模型架构提供参考。它揭示了 Transformer 如何处理加法这类结构化任务,这可能为特定领域带来更具可解释性和计算效率的模型。 该模型成功的关键在于将数字表示为独立的数字 token 而非连续值,并且研究人员手动选择权重而非依赖基于梯度的优化。然而,这种方法目前仅适用于固定位数的整数加法,无法推广到浮点运算或可变长度输入。

reddit · r/MachineLearning · LetsTacoooo · Feb 28, 17:15

背景: Transformer 是一种使用注意力机制处理序列数据的神经网络架构,最初为自然语言处理开发,现已应用于各种任务。参数数量指的是模型中可学习权重的数量,现代大型语言模型通常包含数十亿参数。数字 token 将每个数字位表示为模型词汇表中的离散符号,类似于语言模型中对单词进行分词的方式。手动权重选择涉及基于领域知识直接设置模型参数,而非通过反向传播从数据中学习它们。

参考链接

社区讨论: 社区讨论呈现出不同观点,一些人赞扬了手动权重选择的效率及其与 Transformer 可解释性 RASP 研究的联系,而另一些人则质疑其实用性,因为硬件本身已具备更优越的算术能力。几位评论者指出这项研究对于理解 Transformer 内部机制和潜在提高训练效率的价值,但也有人对研究基准与实际部署挑战(如延迟和成本)之间的差距表示担忧。

标签: #transformers, #neural-networks, #arithmetic, #model-efficiency, #research


Micro Diffusion:约 150 行 Python 代码实现的极简离散文本扩散模型 ⭐️ 7.0/10

一位开发者发布了名为“Micro Diffusion”的项目,这是一个用约 150 行纯 Python/NumPy 代码实现的极简离散文本扩散模型,灵感来源于 Karpathy 的 MicroGPT。该项目包含三个不同复杂度的版本,它们共享相同的核心扩散循环但使用不同的去噪器,并且可以在 CPU 上使用 32,000 个 SSA 婴儿名字的数据集在几分钟内完成训练。 该项目通过剥离大型框架的复杂性,显著降低了理解文本扩散模型的门槛,使得核心算法易于用于教学目的。它证明了基于扩散的文本生成的基本概念可以用最少的代码实现和理解,这对于该领域的新学生和研究人员非常有价值。 该实现包含一个 143 行纯 NumPy 的“最简”版本、一个带有注释和可视化的版本,以及一个使用双向 Transformer 作为去噪器的 PyTorch 版本。一个关键的见解是去噪器是一个可插拔的组件,这突出了扩散过程的模块化特性。该模型在 SSA 婴儿名字数据集上训练,该数据集为演示提供了一个简单、结构化的文本语料库。

reddit · r/MachineLearning · Impossible-Pay-4885 · Feb 28, 03:57

背景: 文本扩散模型是一类生成式 AI,它通过从随机噪声开始迭代地优化一系列 token 来生成文本,这与自回归模型(如 GPT)从左到右顺序生成 token 的方式不同。离散扩散模型直接在离散的 token(如单词或子词)上操作,这与在连续潜在空间中工作的连续扩散模型形成对比。美国社会保障局(SSA)婴儿名字数据集是一个公开可用的、经过整理的美国常用名字列表,通常被用作机器学习教程中的简单基准数据集。

参考链接

社区讨论: 社区反应积极,赞扬了该实现的教育价值和极简主义。一位用户表示“非常敬佩将扩散模型浓缩到仅 150 行代码”,强调了其对于学习核心逻辑的实用性。另一位用户幽默地指出该项目可能会消耗大量时间(“好吧,接下来一周没了”)。另有一条评论讨论了 AI 辅助写作的可识别性,并建议非英语母语者使用更明确的免责声明。

标签: #diffusion-models, #educational, #minimal-implementation, #python, #text-generation


裸机 AI:通过 UEFI 应用程序直接启动进入 LLM 聊天,无需操作系统 ⭐️ 7.0/10

一位开发者创建了一个 UEFI 应用程序,能让戴尔 E6510 笔记本电脑直接启动进入大型语言模型(LLM)聊天界面,完全绕过了任何操作系统或内核。整个推理栈,包括分词器、权重加载器、张量运算和推理引擎,都是用独立的 C 语言从零开始编写,没有任何外部依赖。 这个项目展示了 AI 推理所能达到的极致简约性,突破了底层系统编程的边界,并探索了专用、单一用途 AI 硬件的潜力。虽然目前并不实用,但它为在专用 AI 应用中减少软件开销和启动时间提供了一个有价值的原型验证。 该应用程序在 UEFI 启动服务模式下运行,由于缺乏优化,目前速度极慢,开发者优先考虑的是实现网络驱动功能。最终目标是用于在本地网络上提供较小的模型服务,其构建初衷主要是作为一项技术探索“为了好玩”。

reddit · r/LocalLLaMA · Electrical_Ninja3805 · Feb 28, 22:32

背景: UEFI(统一可扩展固件接口)是一种现代固件标准,取代了传统的 BIOS,在系统启动期间初始化硬件,提供了一个更先进的预启动环境。独立的 C 语言编程指的是编写不依赖标准库或底层操作系统的 C 代码,通常用于引导程序、内核或嵌入式系统。裸机 LLM 推理涉及在没有操作系统介入的情况下直接在硬件上运行语言模型,旨在最大限度地减少延迟和资源开销。

参考链接

社区讨论: 社区反应褒贬不一,许多人赞扬其技术成就和创造力,称其为“很酷的项目”。然而,一些评论者质疑其实用性,认为像最小化 Gentoo 安装这样的优化操作系统最终会更快、功能更全,使得这种裸机方法尽管新颖,但对于性能提升来说“可能毫无用处”。

标签: #bare-metal, #UEFI, #LLM-inference, #systems-programming, #low-level


Qwen3.5-35B-A3B 在消费级 Mac 上取代双模型智能体方案,单模型处理推理与编码任务。 ⭐️ 7.0/10

一位用户成功使用单一的 Qwen3.5-35B-A3B 模型,在配备 64GB 内存的 M1 Max Mac 上,取代了原先需要 Nemotron-3-Nano-30B-A3B 和 Qwen3-Coder-30B-A3B 两个模型协作的智能体工作流,以分析亚马逊销售数据。该单模型通过 llama.cpp 服务器运行,采用 Q4_K_XL 量化格式,完整处理了需要推理和 Python 编码的整个任务。 这展示了在消费级硬件上部署本地多步骤 AI 智能体的重大简化,通过消除模型路由逻辑降低了系统复杂性。它突显了一个趋势:更新、能力更强的开源模型正成为复杂工作流的可行一体化解决方案,可能降低使用复杂本地 AI 应用的门槛。 Qwen3.5-35B-A3B 模型在 M1 Max 上的运行速度约为每秒 27 个 token,低于之前双模型方案中单个模型的速度(约 40-45 tok/s),但整个工作流得以简化。用户特别指出,对于智能体任务,禁用 ‘thinking mode’(思考模式)至关重要,可以避免为微小的收益付出 2-3 倍的延迟开销。

reddit · r/LocalLLaMA · luke_pacman · Feb 28, 18:10

背景: Qwen3.5 是阿里巴巴在 2026 年发布的大语言模型系列,其中 35B-A3B 变体是一个拥有 350 亿参数的模型。’A3B’ 表示其采用了先进、高效的架构。Llama.cpp 是一个流行的 C/C++ 推理框架,能让大模型在 Apple Silicon Mac 等消费级硬件上高效运行。量化(例如 Q4_K_XL)是一种通过使用更少的比特位来表示模型权重,从而减少内存占用并加速推理的技术,但可能会牺牲一些精度。

参考链接

社区讨论: 社区反响积极,用户们很欣赏这个实际基准测试。讨论的关键点包括:一致认为禁用 ‘thinking mode’ 对避免智能体任务延迟至关重要;移除复杂的模型路由逻辑带来了显著好处;以及关于具体使用的 GGUF 文件来源和智能体框架的提问。一些用户表示打算转向 Qwen 模型,而另一些则建议等待更稳定的量化版本和错误修复。

标签: #local-llm, #agentic-ai, #model-benchmark, #apple-silicon, #qwen


Google Chrome 默认下载 4GB 本地 AI 模型 Gemini Nano ⭐️ 7.0/10

Google Chrome 浏览器被发现会在默认配置下自动下载一个名为 ‘weights.bin’、大小约 4GB 的本地 AI 模型文件。该文件用于支持 Prompt API、翻译及摘要等内置 AI 功能。 此举标志着浏览器正朝着集成强大的设备端 AI 模型方向重大转变,优先考虑响应速度和用户隐私,而非依赖云端。然而,未经用户明确同意就自动下载大文件,会影响存储空间和带宽,引发了关于透明度和用户控制的担忧。 用户可以通过在 Chrome 中禁用相关的实验性标志并手动删除对应的文件夹来释放磁盘空间。删除 ‘weights.bin’ 文件将导致相关的 AI 功能失效。

telegram · zaihuapd · Feb 28, 05:02

背景: Gemini 是 Google DeepMind 开发的多模态大语言模型系列。Gemini Nano 是一个轻量级版本,专为在本地设备上高效运行而设计。Chrome 的 Prompt API 是一项实验性浏览器功能,允许 Web 应用程序利用这些本地 AI 模型执行翻译和摘要等任务,而无需将数据发送到外部服务器,从而增强了隐私性并支持离线使用。

参考链接

标签: #browser, #ai-models, #privacy, #google-chrome, #local-ai


韩国国税厅误曝硬件钱包助记词,导致 480 万美元加密货币被转走 ⭐️ 7.0/10

韩国国税厅近日在公布对欠税人员的现场搜查成果时,将查封的一台 Ledger 硬件钱包的完整助记词未加遮挡地公开在新闻资料中。这导致该钱包内价值约 480 万美元的 400 万个 PRTG 代币被转走,但约 20 小时后,相关代币被全部退回原钱包。 这一事件突显了一个主要政府机构的严重安全失误,表明基本的操作疏忽就可能危及高价值的数字资产。它成为机构加密货币托管以及安全处理敏感恢复信息(即使是官方机构)重要性的一个关键案例。 被曝光的是一台 Ledger 硬件钱包,泄露原因是包含助记词的图片未经任何遮挡处理就被公开。链上记录显示,至少三个自 2023 年 1 月后不活跃的钱包受影响,这些钱包合计持有 PRTG 总供应量的 40%。PRTG 代币流动性极低,主要在 MEXC 交易所交易。

telegram · zaihuapd · Feb 28, 11:27

背景: 硬件钱包是一种用于安全存储访问加密货币所需私钥的物理设备。助记词(通常为 12 或 24 个单词)是这些私钥的一种人类可读的备份形式;任何人获得该助记词即可完全控制相关资产。Ledger 是此类硬件钱包的知名制造商。暴露助记词等同于交出钱包及其资金的全部控制权。

参考链接

标签: #cryptocurrency, #security, #blockchain, #government, #hardware-wallet