From 43 items, 12 important content pieces were selected
- AMD 与 Meta 签署 6000 亿美元 AI 芯片供应协议,Meta 可获 10%持股期权 ⭐️ 9.0/10
- Linux 内核开发者提议为 clone3()系统调用添加 AUTOREAP 和 PIDFS 标志 ⭐️ 8.0/10
- 对缺乏代码和可复现性的机器学习会议论文的批评 ⭐️ 8.0/10
- Qwen3.5-122B-A10B,一个拥有 1220 亿参数的大型开源模型在 Hugging Face 发布。 ⭐️ 8.0/10
- Qwen3.5-122B-A10B 在综合基准测试中超越 GPT-5-mini 和 GPT-OSS-120B。 ⭐️ 8.0/10
- Anthropic 发布检测蒸馏攻击博客,引发审查与可靠性担忧 ⭐️ 8.0/10
- 美国国防部因 AI 军事用途限制分歧,拟终止与 Anthropic 合作 ⭐️ 8.0/10
- 狗狗随机键盘输入通过 AI 脚手架生成可玩游戏 ⭐️ 7.0/10
- Qwen3.5-35B-A3B 在消费级硬件上为智能体编码展示突破性性能。 ⭐️ 7.0/10
- 通义千问 Qwen3.5 新模型变体曝光:270 亿参数稠密模型与 1220 亿参数 MoE 模型 ⭐️ 7.0/10
- Liquid AI 发布 LFM2-24B-A2B,一款用于高效边缘推理的 240 亿参数稀疏 MoE 模型。 ⭐️ 7.0/10
- 宇树科技发布面向工业应用的四足机器人 Unitree As2 ⭐️ 7.0/10
AMD 与 Meta 签署 6000 亿美元 AI 芯片供应协议,Meta 可获 10%持股期权 ⭐️ 9.0/10
AMD 于 2 月 24 日宣布与 Meta 达成一项为期 5 年、总额最高达 6000 亿美元的 AI 芯片供应协议,协议包含 Meta 可购买 AMD 最高 10%股份的期权。根据协议,AMD 将向 Meta 供应 6 吉瓦规模的芯片,包括将于今年下半年推出的 MI450 旗舰硬件及定制化 CPU。 这项巨额协议标志着 AI 硬件市场的重大战略转变,通过锁定一家主要超大规模云服务商作为长期客户,直接挑战了英伟达的统治地位。其前所未有的规模与股权参与条款,可能在未来数年重塑半导体行业的竞争格局与供应链关系。 AMD 将向 Meta 发行 1.6 亿股认股权证,行权价仅为 1 美分,其归属取决于 AMD 股价达到 600 美元等业绩目标的达成。根据行业报告,该协议覆盖 6 吉瓦的 AI 算力容量,首批 1 吉瓦部署计划于 2026 年下半年进行。
telegram · zaihuapd · Feb 24, 14:47
背景: AMD 的 MI 系列加速器旨在数据中心 AI 市场中与英伟达占据主导地位的 H100 及即将推出的 Blackwell GPU 竞争。半导体制造商与 Meta、亚马逊、谷歌等大型云服务商之间的 AI 芯片供应协议已变得越来越具有战略意义,通常涉及定制芯片和长期产能承诺。”6 吉瓦”这一指标指的是为 AI 计算基础设施分配的总功率容量,这与可部署的加速器数量相关。
标签: #AI Hardware, #Semiconductors, #Corporate Strategy, #Meta, #AMD
Linux 内核开发者提议为 clone3()系统调用添加 AUTOREAP 和 PIDFS 标志 ⭐️ 8.0/10
Christian Brauner 提议为 clone3()系统调用添加两个新标志:CLONE_AUTOREAP,用于在子进程退出时自动清理;以及 CLONE_PIDFD_AUTOKILL,它将子进程的生命周期与其 pidfd 文件描述符绑定,如果 pidfd 被关闭,子进程会被立即终止。这些提议扩展了 pidfd API,并代表了 Linux 进程管理安全模型的重大变化。 这很重要,因为它从根本上改变了 Linux 系统上进程的管理方式,通过 pidfd 向更安全、更确定的进程句柄迈进。特别是 CLONE_PIDFD_AUTOKILL 标志引入了一种新的安全模型,将进程生命周期与文件描述符绑定,这可以防止进程成为孤儿,但也引发了关于意外终止的担忧。 CLONE_AUTOREAP 标志提供了一种’发射后不管’的模式,除非同时使用 CLONE_PIDFD,否则无法获取退出状态。CLONE_PIDFD_AUTOKILL 要求同时使用 CLONE_PIDFD 和 CLONE_AUTOREAP,如果其 pidfd 被关闭,它会用 SIGKILL 信号终止子进程,由于其突然的终止行为,一些开发者认为这存在争议。
rss · LWN.net · Feb 24, 15:26
背景: pidfd API 提供了引用进程的文件描述符,比传统的进程 ID 更安全、更确定。clone3()系统调用用于创建新的进程或线程,现有的 CLONE_PIDFD 标志会为新进程返回一个 pidfd。在传统的 Unix 中,父进程必须在子进程退出后调用 wait()来’收割’僵尸进程,或者将 SIGCHLD 设置为 SIG_IGN 以实现所有子进程的自动清理。
标签: #linux-kernel, #systems-programming, #process-management, #kernel-api, #pidfd
对缺乏代码和可复现性的机器学习会议论文的批评 ⭐️ 8.0/10
一篇 Reddit 帖子批评了主要机器学习会议接受那些没有附带代码或可复现证据的论文,并引用了一个具体例子:一篇承诺通过 RAG 快速生成蛋白质 MSA 的论文,其链接指向一个空的 GitHub 仓库。该帖子指出这是一个系统性问题,可能导致捏造的结果或方法学错误无法被核查。 这个问题很重要,因为它加剧了机器学习领域的可复现性危机,损害了科学诚信并阻碍了真正的进步。当那些声称在训练成本高昂的模型上取得最先进(SOTA)性能的论文无法被验证时,会浪费社区资源,削弱对已发表研究的信任,并阻碍潜在突破性方法的实际应用。 批评特别提到了那些声称训练了大型模型并展示了 SOTA 结果但不提供代码的论文,由于高昂的计算成本,这使得独立验证无法进行。一个被引用的例子是一篇关于使用 RAG 生成蛋白质 MSA 的论文,它提供了一个指向完全空白的 GitHub 仓库的链接,且作者未就代码发布做出任何回应。
reddit · r/MachineLearning · osamabinpwnn · Feb 24, 10:05
背景: 在机器学习中,“SOTA”(State-Of-The-Art,最先进水平)指的是在特定基准任务上当前已知的最佳性能。主要会议通常使用像 OpenReview 这样的平台进行投稿和同行评审。可复现性——即其他研究人员能够使用提供的代码和数据获得相同结果的能力——是科学研究的基石,但在 ML 等计算领域是一个公认的挑战。
社区讨论: 社区情绪持强烈批评态度,认为缺乏代码是更深层次的可复现性危机以及学术界职业激励错位的表现。关键观点包括:即使提供了代码也常常无法运行或被混淆;代码的缺失使得无法检测结果是否在统计噪声范围内;一些人认为该领域将职业晋升置于严谨科学之上。几位评论者指出,由于学者并非专业软件开发人员,代码质量通常很差。
标签: #reproducibility, #machine-learning, #academic-research, #open-science, #peer-review
Qwen3.5-122B-A10B,一个拥有 1220 亿参数的大型开源模型在 Hugging Face 发布。 ⭐️ 8.0/10
阿里巴巴的通义千问团队在 Hugging Face 上发布了 Qwen3.5-122B-A10B,这是一个拥有 1220 亿参数的稠密语言模型。该模型在基准测试中表现强劲,在 HELM(HLE)基准上获得了 25.3 分,这个成绩在大约六个月前属于最先进水平。 此次发布为开源社区提供了一个强大的大规模模型,直接与 GPT-OSS-120B 等其他领先的开源模型竞争。它推动了高性能 AI 的可及性,使研究人员和开发者能够在没有专有许可限制的情况下,实验和部署这种规模的模型。 该模型采用’稠密’架构(而非混合专家模型),并且目前没有官方提供的 4 位量化权重,这对于实际部署是一个讨论点。社区成员已经创建了量化版本,例如来自 Unsloth 的 GGUF 格式,据报道其中一个量化变体在 RTX 6000 Blackwell GPU 上达到了每秒 94 个令牌的生成速度。
reddit · r/LocalLLaMA · coder543 · Feb 24, 16:44
背景: Qwen3.5 是阿里巴巴通义千问系列大语言模型的最新版本,该系列包含各种参数规模的稠密模型和混合专家模型。量化是部署大模型的关键技术,它通过使用更低精度的数字(如 4 位整数)来表示权重,从而减少模型的内存占用和计算需求,使得在消费级硬件上进行快速推理成为可能。
社区讨论: 社区正在积极讨论模型的量化和实际部署。整体情绪积极,用户们正在测试该模型,并认为其表现优于 GPT-OSS-120B。讨论的关键话题包括:像 Unsloth 这样的团队立即创建了 GGUF 量化版本、对官方提供量化模型的期望、在 RTX 6000 Blackwell 等高端硬件上的性能测试,以及对通义千问发布’对本地部署友好’的模型尺寸表示赞赏。
标签: #large-language-models, #open-source-ai, #model-quantization, #ai-benchmarks, #huggingface
Qwen3.5-122B-A10B 在综合基准测试中超越 GPT-5-mini 和 GPT-OSS-120B。 ⭐️ 8.0/10
Qwen3.5-122B-A10B 模型在一系列关键基准测试中,对 OpenAI 的 GPT-5-mini 和开源模型 GPT-OSS-120B 均表现出优越性能。它在知识(MMLU-Pro)、STEM 推理(GPQA Diamond)、智能体任务(BFCL-V4)和视觉任务(MathVision)上获得了更高分数,成为三者中综合性能最强的模型。 这一结果意义重大,它表明在特定且要求苛刻的任务上,领先的开源模型可以媲美甚至超越像 OpenAI 这样主要 AI 实验室的专有模型性能。它为开发者和研究人员提供了一个强大、高性能的替代选择,可能加速开源 AI 的发展,并为模型部署提供更多选择。 虽然 Qwen3.5 在大多数领域领先,但 GPT-5-mini 在一些编码基准测试和翻译任务上仍有竞争力。社区讨论中提及的一个关键注意事项是原生量化位宽不同:GPT-OSS-120B 是原生 4 位,而 Qwen3.5 是在更高精度下训练的,这在资源受限(如 VRAM 有限)的情况下可能会影响性能比较。
reddit · r/LocalLLaMA · carteakey · Feb 24, 17:18
背景: Qwen3.5 是通义千问(Qwen)大语言模型系列的最新版本,包含稠密模型和混合专家(Mixture-of-Experts, MoE)架构。MMLU-Pro 和 GPQA Diamond 等基准测试是评估大语言模型能力的标准工具;MMLU-Pro 测试模型跨多个学科的广泛知识,而 GPQA Diamond 则是一个极具挑战性的问题子集,旨在测试深度、专家级的推理能力,特别是在 STEM 领域。
社区讨论: 社区情绪兴奋但审慎,讨论焦点集中在实际部署和基准测试的有效性上。关键点包括对图表可读性的担忧、超越基准测试的真实场景测试的重要性,以及对于拥有 64GB VRAM 等硬件限制的用户,模型在量化后的性能表现如何的疑问。一些用户也对它与更大的 Qwen3-235B-A22B 模型相比的性能表示好奇。
标签: #large-language-models, #benchmarks, #open-source-ai, #model-comparison, #qwen
Anthropic 发布检测蒸馏攻击博客,引发审查与可靠性担忧 ⭐️ 8.0/10
Anthropic 发布了一篇博客文章,详细介绍了其如何检测并主动应对来自中国 AI 公司深度求索、月之暗面和 MiniMax 的所谓“工业规模蒸馏攻击”。该公司透露,它使用了输出投毒作为对抗这些从其专有模型中提取知识企图的措施。 此事之所以重要,是因为它揭示了大型 AI 公司可能如何主动操纵模型输出来破坏竞争对手,这引发了关于商业 AI 服务响应可靠性和完整性的严重质疑。它也加剧了关于企业控制与开源替代方案之间的辩论,可能推动用户转向他们可以信任的本地、开放权重的模型。 Anthropic 的反制措施包括对特定请求的输出进行投毒,这可能无意中影响到合法用户。该公司将这些行动框定为必要的安全措施,但提供的公开证据有限,例如没有发布全面的数据包来支持其关于攻击规模和性质的声明。
reddit · r/LocalLLaMA · obvithrowaway34434 · Feb 24, 06:07
背景: 模型蒸馏是一种技术,通过训练一个较小的学生模型来模仿较大的教师模型的输出,从而有效地转移知识。在此语境下,“蒸馏攻击”指的是未经授权、试图提取专有模型能力的尝试,通常通过 API 查询进行。开放权重模型是指其参数(权重)被公开发布的 AI 模型,允许本地部署和检查,这与闭源模型(权重和内部工作机制都保密)不同。
社区讨论: 社区反应高度批判,主要集中在三点:对“攻击”一词和所提供证据的怀疑;对输出投毒的伦理及其对所有用户响应可靠性影响的深切担忧;以及对 Anthropic 公司口吻和感知动机的强烈批评,包括其将此事与主张芯片出口管制联系起来。
标签: #AI Ethics, #Model Security, #Corporate Censorship, #Open Source AI, #AI Policy
美国国防部因 AI 军事用途限制分歧,拟终止与 Anthropic 合作 ⭐️ 8.0/10
美国国防部正考虑终止与人工智能公司 Anthropic 的合作,主要原因是双方在 Claude AI 模型的使用权限上存在根本性分歧。具体冲突在于,Anthropic 坚持禁止将 Claude 用于大规模监控及全自动武器系统,而国防部则要求获得包括武器研发和战场行动在内的“所有合法用途”授权。 这一潜在的分裂凸显了领先 AI 开发商建立的伦理护栏与国家防务战略需求之间的关键矛盾,可能为政府如何采购和部署先进 AI 树立先例。它可能影响美国军方获取尖端 AI 能力,同时加剧了行业内关于负责任 AI 开发以及商业技术在战争中应用限度的持续辩论。 据报道,在 Claude 被用于针对委内瑞拉领导人马杜罗的军事行动后,分歧进一步加剧,这引发了 Anthropic 对其技术涉及实战打击的疑虑。值得注意的是,像 OpenAI 和 Google 等竞争对手据称已同意为国防部放宽类似限制,这使得 Anthropic 在伦理立场上更为孤立。
telegram · zaihuapd · Feb 25, 01:21
背景: Anthropic 是一家以开发 Claude 系列大语言模型而闻名的 AI 安全与研究公司。其方法的核心原则是“宪法 AI”,这是一种训练方法,让 AI 使用一套书面原则(宪法)来批判和修订自己的回答,旨在构建可靠且可操控的系统。Claude 模型(如 Claude 3 Opus)是先进的多模态 AI,具备复杂的推理、编码以及理解文本和图像的能力,可通过 API 和云平台获取。
标签: #AI Ethics, #Military Technology, #Government Policy, #Anthropic, #AI Governance
狗狗随机键盘输入通过 AI 脚手架生成可玩游戏 ⭐️ 7.0/10
一位开发者进行了一项幽默实验,他将狗狗随机敲击键盘产生的输入送入 AI 系统,该系统能从这些无意义的输入中生成功能正常、可玩的游戏。该实验表明,现代开发系统即使面对完全随机或低质量的输入,也能生成可运行的应用程序。 该实验有力地评论了 AI 辅助开发如何将重点从精确的人工输入转向复杂的系统脚手架。它引发了关于编程中输入质量重要性下降的思考,以及我们是否正在接近这样一个阶段:工程工作更多地发生在系统架构层面,而非提示词本身。 该实验特别强调了基于 LLM 的脚手架系统如何能够解释甚至随机敲击的按键,并在此基础上构建出功能性的应用程序。作者指出“魔力不在于输入,而在于围绕它的系统”,这表明真正的工程工作已转向创建健壮的开发框架。
hackernews · cleak · Feb 24, 17:15
背景: AI 代码生成使用机器学习模型,根据描述代码功能的输入来编写代码。LLM 脚手架指的是引导大语言模型执行特定任务的结构化框架,类似于建筑中的脚手架提供临时支撑。氛围编码是一种非正式的开发方法,强调直观、快速的原型设计,而非细致的规划。
社区讨论: 评论者称赞该实验是出色的社会评论,有人指出“AI 不知道也不在乎你是不是一只狗”,只要你能提供输入。几位用户强调了关键见解:“随机按键能产生可玩游戏意味着输入几乎不再重要”,这表明我们已经到了一个工程重点转向系统脚手架而非输入质量的阶段。
标签: #AI, #Programming, #Social Commentary, #LLM, #Experiments
Qwen3.5-35B-A3B 在消费级硬件上为智能体编码展示突破性性能。 ⭐️ 7.0/10
一位用户使用 Llama.cpp,在单张 RTX 3090 GPU 上成功运行了量化至 MXFP4_MOE 格式的 Qwen3.5-35B-A3B 模型。该模型实现了每秒超过 100 个 token 的生成速度,利用了 13.1 万的上下文窗口,并成功完成了此前需要更强大 AI 系统才能应对的复杂、限时编码挑战。 这表明高性能的智能体编码——即 AI 自主规划和执行复杂软件任务——如今在价格亲民的消费级硬件上已成为可能。这极大地降低了开发者和研究人员想要在本地实验或部署高级 AI 编码助手的门槛,对基于云的专有模型的主导地位构成了挑战。 该模型采用了混合专家架构,仅激活 30 亿参数,实现了高效率。运行中使用了特定的 MXFP4 量化格式(约每权重 4.25 位),这减少了内存占用,使得这个 350 亿参数的模型能够适配 RTX 3090 的 24GB 显存,同时保持性能。
reddit · r/LocalLLaMA · jslominski · Feb 25, 00:04
背景: 智能体编码指的是 AI 系统自主接收高级指令,将其分解为步骤,并使用工具(如读写文件)来执行,以完成软件任务,这不同于主要提供代码片段建议的传统 AI 编码助手。Qwen3.5 系列是阿里巴巴开发的一系列开源权重大语言模型。混合专家架构是一种模型设计,对于给定的输入,只激活模型总参数中的一小部分(即’专家’),使得运行大模型更加高效。
社区讨论: 社区反应非常积极,多位用户复现了高速和任务成功完成的结果,并对该模型在消费级硬件上的性能感到兴奋。一个值得注意的反驳观点提到,较早的 8 位量化版本在基本工具使用上遇到困难,这凸显了特定的 MXFP4 量化对于获得最佳性能的重要性。社区还讨论了该模型解决了早期版本中存在的如’读文件循环’等顽固问题。
标签: #llm, #agentic-coding, #local-llm, #qwen, #hardware-performance
通义千问 Qwen3.5 新模型变体曝光:270 亿参数稠密模型与 1220 亿参数 MoE 模型 ⭐️ 7.0/10
在通义千问(Qwen)聊天平台上,发现了 Qwen3.5 大语言模型系列的新变体,包括一个 270 亿参数的稠密模型和一个 1220 亿参数的专家混合模型。这一发现预示着即将发布超出此前已知规格的新模型。 这很重要,因为它表明阿里巴巴的通义千问团队正在整个模型尺寸谱系上积极创新,既为受限硬件提供高效的稠密模型,也为高性能任务提供强大的 MoE 模型。这为开发者和研究人员提供了更多选择,填补了中大型模型范围的空白,并加剧了开源 AI 领域的竞争。 1220 亿参数的 MoE 模型规格表明其专为具有大内存的系统设计,社区成员指出它适合拥有 128GB RAM 的配置。270 亿参数的稠密模型则代表了“中等尺寸”模型类别的延续,这类模型因在性能和资源需求之间提供了良好平衡而备受青睐。
reddit · r/LocalLLaMA · AaronFeng47 · Feb 24, 12:55
背景: 通义千问(Qwen)是阿里巴巴云开发的一系列开源大语言模型。“稠密”模型(如 GPT-3)在处理每个输入时都会激活所有参数,导致参数量与计算成本直接相关。相比之下,“专家混合”模型是“稀疏”的;它们包含一个庞大的总参数池(例如数千亿),但对于每个输入,只激活一小部分专门的“专家”子网络,这使得它们在大规模计算时效率更高。Qwen3.5 系列以其集成线性注意力机制和稀疏 MoE 的混合架构而闻名。
社区讨论: 社区反应 overwhelmingly 积极且兴奋,用户对 270 亿参数的稠密模型表示意外,并对 1220 亿参数的 MoE 模型抱有高度期待。讨论的关键点包括:对中型稠密模型持续开发的赞赏、对硬件需求的推测(用户计算显存/内存需求)、以及对未来发布 30 亿至 120 亿参数范围模型的期望。此外,还有一种观点认为这些模型填补了其他项目留下的空白。
标签: #llm, #qwen, #model-release, #moe, #open-source-ai
Liquid AI 发布 LFM2-24B-A2B,一款用于高效边缘推理的 240 亿参数稀疏 MoE 模型。 ⭐️ 7.0/10
Liquid AI 发布了 LFM2-24B-A2B,这是一款拥有 240 亿总参数的稀疏专家混合模型,每个令牌仅激活 23 亿参数,成为其迄今为止最大的 LFM2 模型。该模型设计为可在 32GB 内存内运行,并已在 Hugging Face 上作为开源权重的指令调优模型提供。 此次发布证明了 Liquid AI 的混合架构能够有效扩展到更大规模,同时保持高效的推理性能,这是在消费级边缘硬件上部署强大 AI 模型的关键要求。它标志着在使高容量、高能效的 AI 能够用于本地和设备端应用方面迈出了重要一步,可能将先进 AI 的应用范围扩展到数据中心之外。 该模型采用 40 层 MoE 架构,每个块有 64 个专家并采用 top-4 路由策略,在 MMLU-Pro 和 GSM8K 等基准测试中,随着模型规模扩大,其性能呈对数线性提升。需要注意的是,这是一个预览版发布,因为基于 17 万亿令牌的预训练仍在进行中,预计后续将推出更完整的 LFM2.5 版本。
reddit · r/LocalLLaMA · PauLabartaBajo · Feb 24, 14:43
背景: 稀疏专家混合模型架构是一种技术,模型由许多专门的子网络(’专家’)组成,但对于每个输入令牌,只激活一个小的、被选中的子集(例如 top-4)。这使得模型总参数量可以变得非常大(涵盖海量知识),同时保持每个令牌的计算成本相对较低,因为只使用了一部分参数。文中提到的 GGUF 格式是一种量化文件格式,旨在通过减小模型大小和内存需求来实现高效执行,特别是在 CPU 和 Apple Silicon 设备上。
社区讨论: 社区对该模型在快速、高效的边缘推理方面的潜力及其从小版本扩展而来表示兴奋,但也强烈呼吁提供更详细和独立的基准测试,以将其性能与 Mixtral 或 GPT-OSS 20B 等模型进行比较。一些用户澄清这是一个预览版发布,预训练仍在进行中,另一些用户指出了公告中的有趣笔误,还有一些用户报告了初步测试结果好坏参半。
标签: #Mixture-of-Experts, #Efficient-Inference, #Model-Release, #Sparse-Models, #Edge-AI
宇树科技发布面向工业应用的四足机器人 Unitree As2 ⭐️ 7.0/10
宇树科技正式发布了 Unitree As2 四足机器人,该机器人机身紧凑,具备 90 N·m 的峰值扭矩,空载续航超过 4 小时,防护等级为 IP54,负载能力为 15 公斤,负载下续航超过 13 公里。公司同时强调其开放的二次开发生态,旨在赋能行业应用。 此次发布标志着在让先进的高性能四足机器人更易于应用于工业自动化、巡检和物流任务方面迈出了重要一步。高扭矩、长续航与开放生态的结合,有望加速足式机器人在研究实验室之外的真实场景中的应用。 关键的技术规格包括用于提供强大运动能力的 90 N·m 扭矩,以及 IP54 防护等级,该等级可防止有限度的灰尘侵入和来自任何方向的水溅。一个值得注意的权衡是,15 公斤的负载会显著降低运行距离至 13 公里,这与空载超过 4 小时的运行时间形成对比。’开放的二次开发生态’表明该平台可能提供了用于定制应用开发的 API 或 SDK。
telegram · zaihuapd · Feb 24, 10:09
背景: 四足机器人模仿狗等动物的运动方式,使用腿进行移动,在穿越工业及户外环境中常见的崎岖、不平或杂乱地形时,相比轮式机器人具有优势。运动控制是其核心挑战,通常涉及虚拟模型控制或阻抗控制等方法,以实现稳定和自适应的行走。IP(异物防护)等级是一项国际标准,用于对电气外壳防止灰尘和水侵入的密封有效性进行分类。
标签: #robotics, #quadruped-robot, #hardware, #industrial-automation, #unitree