2025 年  1927

03 月   630

29 日   12

3090显卡相关(未明确与AI联系,根据推测)

 ·  · 

首次测试:Qwen2.5:72b在Ollama Mac与open - webUI、M3 Ultra 512 gb上的测试

 ·  · 

Falcon3-7b为何很少被用作模型(或被引用)

 ·  · 

Nemotron - 49B的KV缓存较源Llama - 70B少70%

 ·  · 

新型GPU问世,具备可扩展内存

 ·  · 

Gemini 2.5 Pro在ARC AGI 2上的测试结果

 ·  · 

扩散语言模型是否有未来?

 ·  · 

8GB显存、16GB内存下的最佳运行模型

 ·  · 

使用Gemini-2.5-pro-exp-03-25模型30分钟未想念Claude

 ·  · 

从零开始‘氛围编码’机器学习模型,涉及Gemini-2.5

 ·  · 

QwenPhi - 4 - 0.5b - Draft相关资源

 ·  · 

EQ - Bench创意写作排行榜新发布:新提示、更多空间与便捷样本读取器

 ·  · 

28 日   13

微小盒子使用体验

 ·  · 

Qwen-2.5-72b成最佳开源OCR模型

 ·  · 

CXL技术:将RAM插入PCIE插槽,助力CPU运行Deepseek

 ·  · 

本地LLM可清理Reddit历史记录

 ·  · 

QwQ - 32B 128k扩展上下文的llama.cpp参数

 ·  · 

字节跳动发布新的语音合成(TTS)模型

 ·  · 

七边形、20个球、旋转数字与Gemini Pro 2.5

 ·  · 

NSFW Orpheus TTS更新

 ·  · 

huihui-ai/QwQ-32B-abliterated表现出色

 ·  · 

千元预算构建相关问题

 ·  · 

通过网络标签逆向工程GPT - 4o图像生成:我的发现

 ·  · 

不计成本下运行Llama 3.3的理想系统

 ·  · 

48GB 4090d拆解与测试视频

 ·  · 

27 日   22

发布轻量级全C++的whisper.cpp桌面UI

 ·  · 

Gemini 2.5 Pro表现惊艳

 ·  · 

运行约300亿参数模型的最佳硬件

 ·  · 

微软开发RAG与微调结合技术优化领域适应

 ·  · 

是否存在比Ollama更好的模型

 ·  · 

查询"Qwen 3"有意外发现

 ·  · 

V3 2.42版一次性贪吃蛇游戏

 ·  · 

Qwen Chat上的新QVQ - Max

 ·  · 

无需GPU的快速音频生成 - Orpheus.cpp

 ·  · 

中国新华三警告:英伟达AI芯片因需求激增短缺

 ·  · 

24GB显存下当前最佳无审查大语言模型

 ·  · 

我的大语言模型皆为自由思考且本地源

 ·  · 

深度剖析NVIDIA DGX Station GB300

 ·  · 

QwQ - 32B的KV_cache/模型大小比率最高?

 ·  · 

今日是否会发布新的Qwen模型?

 ·  · 

DeepSeek V3 0324在Livebench上超越Claude 3.7

 ·  · 

适用于3060显卡的可用模型

 ·  · 

微软开发更高效向大语言模型添加知识的方法

 ·  · 

Gemini 2.5 Pro表现失常

 ·  · 

GPT4与Gemini Flash图像生成器工作原理及技术探究

 ·  · 

Gemma 3的问题出在哪?

 ·  · 

本地工作站构建的抉择

 ·  · 

26 日   22

MacBook Air M4/32gb性能测试数据

 ·  · 

Gemini 2.5 Pro构建巨型结构:一次性完成

 ·  · 

OpenAI将采用MCP

 ·  · 

免费搜索:让搜索免费面向所有人

 ·  · 

开源中的多模态目前很糟糕

 ·  · 

大学欲自托管大语言模型,求建议与硬件需求

 ·  · 

中国或有效禁售部分英伟达GPU,英伟达何去何从

 ·  · 

DeepSeek-V3.1官方实时评测分数与本地测试结果不匹配

 ·  · 

Qwen 2.5 Omni 7B发布

 ·  · 

Qwen发布Qwen/Qwen2.5 - Omni - 7B

 ·  · 

Gemini 2.5 Pro Exp 03 - 25在Livebench中排名第一

 ·  · 

M3 Ultra Mac Studio 512GB对Deepseek V3 671b模型的prompt和写入速度

 ·  · 

Livebench上的V3.1

 ·  · 

深度探索Deepseek v3 0324:国内的Sonnet 3.5

 ·  · 

DeepSeek - V3在M3 Ultra 512GB上4位量化每秒处理超20k个词元且功耗低于200瓦

 ·  · 

谷歌发布用于治疗应用的TxGemma开放模型

 ·  · 

我刚收到新设备

 ·  · 

InclusionAI发布Ling系列新模型

 ·  · 

工作常用的Chonkie库在GitHub消失

 ·  · 

荷兰有大量3090 FE在售

 ·  · 

黄仁勋谈GPU

 ·  · 

DeepSeek-V3-0324不同位量化版本发布及本地运行

 ·  · 

25 日   30

llama.cpp量化导致质量下降的广泛基准测试

 ·  · 

 ·  · 

2025年已过三个月

 ·  · 

Aider新Gemini pro 2.5轻松胜过sonnet 3.7

 ·  · 

深擎V3(重大改进)与Gemini 2.5 Pro(SOTA)长文本测试

 ·  · 

Deepseek V3 0324在OpenHands下获38.8% SWE - Bench验证

 ·  · 

Gemini Pro 2.5数分钟打造最佳马里奥游戏

 ·  · 

Amoral Gemma3 v2发布,拒绝率显著降低

 ·  · 

AMD将推Strix Halo桌面版,CEO苏姿丰受访证实

 ·  · 

谷歌称Gemini 2.5超越其他思维模型

 ·  · 

Gemini 2.5 Pro具备思考能力

 ·  · 

AI发展或需更多资金投入

 ·  · 

Gemini 2.5 Pro实验版发布且称霸基准测试

 ·  · 

厌倦使用pygame/three.js进行评估

 ·  · 

Qwen系列新消息引发关注

 ·  · 

vLLM与SGLang在2块英伟达GPU上的性能对比:SGLang借助数据并行性完胜

 ·  · 

近期模型让我觉得注意力机制就足够了

 ·  · 

DeepSeek - V3 - 0324 GGUF - Unsloth模型相关资源

 ·  · 

利用Whisper STT、Orpheus TTS、Gemma 3与LM Studio创建虚拟助手:mOrpheus

 ·  · 

我们面临竞争

 ·  · 

Deepseek V3 0324被评为最佳非推理模型

 ·  · 

Arc - AGI - 2新基准发布

 ·  · 

DeepSeek - V3 - 0324模型卡依据基准更新

 ·  · 

150美元的Phi - 4 Q4服务器

 ·  · 

特朗普全面禁止英伟达在中国的业务对本地大语言模型场景的影响

 ·  · 

Deepseek - v3 - 0324在Aider中的应用

 ·  · 

DeepSeek V3.1一次性网站

 ·  · 

DeepSeek - V3 - 0324更新日志

 ·  · 

不明意义的Gemma 3与P102 - 100组合

 ·  · 

Deepseek v3相关信息

 ·  · 

24 日   24

深度探索新基准分数

 ·  · 

AI代写感谢信意外大获好评

 ·  · 

DeepSeek V3-0324较V3有显著提升,成为最佳非推理模型

 ·  · 

Qwen2.5 - VL - 32B - Instruct发布

 ·  · 

Claude的"think"工具将准确率提升54%(含与Ollama集成)

 ·  · 

Drummer的Fallen Command A 111B v1 - 宏大且独特的作品

 ·  · 

32B/70B模型在双3090上的推理速度

 ·  · 

DeepSeek V3-0324在代码创意基准测试中追平Sonnet 3.7

 ·  · 

Deepseek V3-0324

 ·  · 

深度探索v3与R1对比(首为v3)

 ·  · 

华硕推出售价2999美元的迷你AI超算

 ·  · 

深探发布新的V3检查点(V3-0324)

 ·  · 

发布TeapotLLM:用于抗幻觉问答和文档提取的开源约8亿参数模型,完全在CPU上运行

 ·  · 

在Steam Deck的Docker中运行大型语言模型

 ·  · 

关于此是否有人在讨论?是否合法?

 ·  · 

创建React推理UI模型:采用新推理结构与状态进行组件生成

 ·  · 

微星再次预热24GB显存的GeForce RTX 5080

 ·  · 

对大语言模型概念的困惑

 ·  · 

FanFic - Illustrator:3B推理模型,将故事转换为完美插画提示

 ·  · 

DeepSeek - R1 - DRAFT - 0.5B - GGUF模型资源

 ·  · 

Meta上月发布低比特LLM量化论文似被忽视

 ·  · 

制作Transformer工作原理的图表与解释

 ·  · 

Chatbot Arena现可能有Llama 4原型

 ·  · 

Mistral小模型草案

 ·  · 

23 日   15

四大前沿模型五轮对决解决问题

 ·  · 

量化方法很重要:MLX Q2与GGUF Q2_K对比,MLX破坏模型性能而GGUF保持可用

 ·  · 

Q2模型毫无用处,Q4是不破坏模型(至少对MLX而言)的最低量化水平,Mistral Small 24B在Q2下的示例

 ·  · 

Mistral 24b初体验:表现出色且速度快

 ·  · 

是否有仅基于CPU的大语言模型架构尝试?

 ·  · 

QwQ发布后我经历的三个接受阶段

 ·  · 

A770与9070XT基准测试

 ·  · 

Qwq因使用不当而差评

 ·  · 

14B模型8位量化与27B模型4位量化性能对比

 ·  · 

Gemma团队对未来版本的期望征集

 ·  · 

老硬件定价的好消息

 ·  · 

Groq公司如何实现高速运行大语言模型?

 ·  · 

AMD Strix Halo迷你PC运行70B Q8模型视频发布

 ·  · 

在家深度研究更新,能更好收集用户输入输出报告

 ·  · 

Llama 3.3 70B与基于Llama 3.3的Nemotron Super 49B对比

 ·  · 

22 日   24

大API提供商(OpenAI、Anthropic等)是否盈利

 ·  · 

Gemma3微调与世界知识表现优于众多模型

 ·  · 

用于代码的最佳大语言模型?通过Aider的API

 ·  · 

PC和Mac在本地大语言模型生成标记时发出嘶嘶声

 ·  · 

寻找可去除水印和调整图像大小的本地模型

 ·  · 

Qwen2.5 - Omni即将到来?Huggingface Transformers PR 36752

 ·  · 

本地动漫角色语音合成兴趣调查

 ·  · 

本地大语言模型用于软件开发的现状

 ·  · 

从远程模型(如Claude等)切换至本地模型是否值得?

 ·  · 

想象完全合规的gemma3 vision模型

 ·  · 

Fallen Gemma3不同版本:4B、12B、27B

 ·  · 

长思维链推理模型的标记影响

 ·  · 

我的4块3090外接显卡(eGPU)集合

 ·  · 

OpenAI发布GPT - 4.5和O1 Pro API,决策存疑

 ·  · 

家用服务器两分钟自动配置双GPU运行vLLM

 ·  · 

纯Rust实现与llama.cpp速度相近的本地LLM推理替代方案

 ·  · 

Deepseek网站现支持像其他网站一样的退出选项

 ·  · 

15亿参数在o1 - preview数学基准测试中有新发现

 ·  · 

为何每次想买新GPU都觉得穷,尽管收入增加

 ·  · 

开源实时语音模型MoshiVis可描述图像

 ·  · 

AMD 7900可获取Flash Attention v2

 ·  · 

英伟达在AI竞赛中形成垄断的原因

 ·  · 

本地大语言模型的用途及与大型科技公司产品对比

 ·  · 

RTX PRO 5000笔记本电脑GPU参数

 ·  · 

21 日   24

不同大语言模型推理轨迹中的单词统计分析

 ·  · 

20GB VRAM限制下,最适合Python开发的新模型

 ·  · 

利用用户迷惑诱导其多付费

 ·  · 

中国改造4090,48GB售价比RTX 5090便宜 - 水冷约3400美元

 ·  · 

Orpheus - FastAPI:具有8种声音和情感标签的本地TTS(兼容OpenAI端点)

 ·  · 

RTX Pro Blackwell各型号定价曝光

 ·  · 

Llama 3.3和Nemotron 49B Super现身LMSYS竞技场

 ·  · 

混元发布T1推理模型

 ·  · 

腾讯推出混元 - T1大推理模型,与DeepSeek - R1竞争

 ·  · 

深林公司发布新型BitNet模型

 ·  · 

Qwen 3即将到来!

 ·  · 

汽车助手学习项目:本地4090运行

 ·  · 

字节跳动在HuggingFace发布保持身份的开源图像模型

 ·  · 

Docker对Ollama的回应令人兴奋之处

 ·  · 

未来6 - 12个月GPU价格预测

 ·  · 

AMD推出GAIA开源项目用于在Ryzen™ AI上运行本地大语言模型

 ·  · 

QwQ 32b、Gemma 3 27b与Mistral 24b本地测试结果

 ·  · 

空间理解专用大型语言模型SpatialLM

 ·  · 

HF推出32B大小的C++编码Coder模型

 ·  · 

创建替代Openwebui的应用

 ·  · 

QWQ可在块外自我修正

 ·  · 

Mistral - small 3.1视觉用于PDF的RAG测试

 ·  · 

Orpheus聊天WebUI:Whisper + 大语言模型 + Orpheus + WebRTC管道

 ·  · 

增强型推理模型Reka - Flash 3 21B发布

 ·  · 

20 日   23

DGX与Spark会话

 ·  · 

从vllm切换回llamacpp

 ·  · 

开源项目有声读物创建器发布版本3

 ·  · 

英特尔前CEO指责英伟达:AI GPU价格贵10000倍

 ·  · 

OpenAI或将很快开源模型

 ·  · 

本地免费高品质文本转语音工具Sesame CSM发布

 ·  · 

Hugging Face与Unsloth发布Gemma 3的GRPO新指南

 ·  · 

公共物品博弈基准:贡献与惩罚,一个多智能体基准

 ·  · 

OlympicCoder - 7b结合LMStudio与VSCode本地编码,性能超Claude 3.7 Sonnet

 ·  · 

AI智能体的摩尔定律

 ·  · 

打造700美元以下64GB显存GPU服务器

 ·  · 

谷歌Gemma 9B参数规模下有无更好模型

 ·  · 

奥菲斯、芝麻的CSM - 1B和久泰的莫西入门

 ·  · 

为何Whisper v3 turbo尚未被取代?

 ·  · 

TikZero:基于大语言模型从文本标题生成科学图表的新方法

 ·  · 

Mistral Small 3.1与Mistral Small 3性能对比

 ·  · 

NVIDIA以建议零售价出售少量5080和5090

 ·  · 

大语言模型翻译成本比DeepL低800倍

 ·  · 

Hugging Face回应白宫AI行动计划RFI的策略

 ·  · 

奥菲斯本地语音合成(LM工作室)

 ·  · 

当前最佳开源医疗大语言模型

 ·  · 

Gemma3 4B相关资源

 ·  · 

150亿参数以下的创意写作

 ·  · 

19 日   23

Apache TTS: Orpheus 3B 0.1 FT发布

 ·  · 

RTX PRO 6000搭载96G VRAM上市

 ·  · 

LLMs为何不擅长编写/理解C/C++

 ·  · 

为何没有非苹果的统一内存替代方案

 ·  · 

Gemma 3 GRPO现可用于Unsloth且已修复漏洞

 ·  · 

GPU不同通信方式下DDP训练的基准测试结果

 ·  · 

本地羊驼(Llama)配置

 ·  · 

构建开源混合推理大语言模型

 ·  · 

开源模型在将PyTorch转译为Triton方面性能超越DeepSeek - R1和OpenAI o1

 ·  · 

微软KBLaM:带来新的LLM外部知识整合

 ·  · 

寻求QwQ - 32B的优质草稿模型

 ·  · 

若"模型即产品"文章为真,许多AI公司将面临厄运

 ·  · 

Sonnet 3.7 Max:高花费与高后悔

 ·  · 

RTX 50xx系列是否故意限制计算/人工智能?

 ·  · 

无有效信息可生成标题

 ·  · 

Stability AI发布新多视图3D模型

 ·  · 

梦想的憧憬

 ·  · 

Nemotron - Super - 49B或成创意写作利器(24GB显存)

 ·  · 

Llama4或于下月推出,多模态、长上下文

 ·  · 

AMD Ryzen AI 9 HX 370迷你电脑Acemagic F3A,最高128GB内存

 ·  · 

Meta发布新模型:VGGT(视觉几何基础Transformer)

 ·  · 

1300美元在智利购得完美A6000(安培)

 ·  · 

不要购买旧款Hopper H100

 ·  · 

18 日   38

深度探索R1模型是否因过度思考而犯错

 ·  · 

微调后的Gemma 3模型分享

 ·  · 

四月将推出LLAMA 4?

 ·  · 

Gemma 3 27B与Mistral Small 3.1的实时基准测试结果

 ·  · 

Mistral Small 3.1未包含在公告中的基准性能

 ·  · 

与GeForce相关的PCIe插槽

 ·  · 

NVIDIA推出DGX Spark和DGX Station台式机进军AI PC领域:72核Grace CPU、Blackwell GPU、最高784GB内存

 ·  · 

Llama-3.3-Nemotron-Super-49B-v1基准测试

 ·  · 

DGX Spark内存带宽达273GB/s,看RTX Pro 5000

 ·  · 

EXAONE-Deep-7.8B或为体验过的最差推理模型

 ·  · 

NVIDIA DGX Spark(Project DIGITS)规格公布

 ·  · 

Nvidia DGX Spark规格发布并更名

 ·  · 

NVIDIA RTX PRO 6000 “Blackwell"系列发布:拥有24K核心、96GB显存的旗舰GB202 GPU

 ·  · 

英伟达DGX Sparks与Digits相关

 ·  · 

Mistral - Small - 3.1 - 24B - Instruct - 2503 - GGUF相关资源

 ·  · 

英伟达新推理模型

 ·  · 

趣味初印象:非愚蠢测试

 ·  · 

华硕数字(ASUS DIGITS)

 ·  · 

ollama 0.6.2预发布版让Gemma 3正常工作

 ·  · 

Meta谈自身与超10亿下载量的开源AI

 ·  · 

关于GGUFs的疑问

 ·  · 

SmolDocling - 256M参数的文档理解视觉语言模型

 ·  · 

Gemma - 3 - 27B视觉能力差强人意

 ·  · 

昆仑万维公司发布Skywork - R1V - 38B(视觉思维链推理模型)

 ·  · 

Gemma3在STEM领域表现令人失望

 ·  · 

开源78亿模型在多项基准测试中击败o1 mini

 ·  · 

开源推理模型Skywork - R1V (38B,多模态,CoT推理)

 ·  · 

对OpenAI新响应API的思考

 ·  · 

最佳对话生成TTS模型推荐

 ·  · 

Llama4可能为lmarena上的[codename]

 ·  · 

Gemma3有首日视觉支持而Mistral Small 3.1没有的原因

 ·  · 

Mistral Small 3.1测试结果

 ·  · 

近期激动人心的发布后,确信基准测试多不可信

 ·  · 

Cohere Command A与Mistral Small 3.1的扩展纽约时报连接基准测试结果

 ·  · 

对LM Studio中MLX模型的M3 Ultra测试请求

 ·  · 

LG的EXAONE 2.4b模型性能超棒

 ·  · 

LG发布Exaone深度思考模型

 ·  · 

LG发布新推理模型EXAONE - Deep

 ·  · 

17 日   20

Cohere Command - A在LMSYS中排名第13

 ·  · 

编码氛围不再时

 ·  · 

妻子终认可我的计算机爱好有用

 ·  · 

大语言模型的"思考"为何如此紊乱?

 ·  · 

Mistral Small 3.1发布,性能卓越

 ·  · 

Mistral Small 3.1发布

 ·  · 

Mistral Small 3.1(24B)模型资讯

 ·  · 

AMD Ryzen AI MAX+ 395 “Strix Halo” APU在DeepSeek R1 AI基准测试中比RTX 5080快3倍多

 ·  · 

QwQ 32B登上LMSYS竞技场排行榜

 ·  · 

开源编码代理重构

 ·  · 

每日使用的小众大语言模型推荐

 ·  · 

AI代理与后台调用LLM API有何区别

 ·  · 

Gemma 3视觉功能在部分界面存在问题

 ·  · 

一台桌面机中安装三个水冷RTX 5090

 ·  · 

Gemma 3 27B版本可在HuggingChat免费使用

 ·  · 

c4ai - command - a - 03 - 2025或为推理/思考而训练

 ·  · 

寻找比Grok更适合成人‘创意写作’的服务

 ·  · 

MCP未达预期与过度炒作

 ·  · 

为何语音(TTS/STT)模型比通用大型语言模型小得多?

 ·  · 

征集EQ - Bench创意写作基准新版本的提示建议

 ·  · 

16 日   22

RTX PRO 6000 X Blackwell 96GB游戏/虚拟制作性能泄露

 ·  · 

用旧安卓手机和预付费卡搭建LLM短信交互服务

 ·  · 

70B(量化)是否是复杂角色扮演的关键因素

 ·  · 

视觉大语言模型如何工作?模型实际看到什么?

 ·  · 

Qwen2.5 - VL的GGUF转换尝试

 ·  · 

推出Muchi,Moshi的微调版本

 ·  · 

2025年150亿参数以下最佳模型

 ·  · 

vLLM提交Windows原生支持的PR

 ·  · 

闪念注意力对QwQ推理模型智能影响有多大

 ·  · 

RTX 3060与RTX 3090在不同规模大语言模型上的性能对比

 ·  · 

家中的深度研究

 ·  · 

Gemma 3模型测试:1B、4B、12B和27B版本对比

 ·  · 

利用OCR与大语言模型进行发票提取

 ·  · 

MetaStone - L1:元始智算推出的轻量级推理模型

 ·  · 

下一代AI模型发布预估

 ·  · 

24GB内存新手的五大模型推荐

 ·  · 

新购Mac Studio,可运行何种模型?

 ·  · 

M3 Ultra上运行超70B参数大语言模型的尝试

 ·  · 

Qwen2 72b VL表现令人印象深刻

 ·  · 

百度发布X1模型,可与GPT 4.5等匹敌

 ·  · 

未提供有效信息标题

 ·  · 

仍在使用旧模型者有谁?

 ·  · 

15 日   18

Mac用户喜爱的界面:Openweb UI还是LM Studio?

 ·  · 

期待无审查的Gemma3b尽快到来

 ·  · 

本地大语言模型运行的实际电力消耗与成本

 ·  · 

DeepSeek R1、Distill Qwen 7B Q4大语境(最高128K)测试

 ·  · 

GPT-Sovits V3 TTS发布:零样本语音克隆,多语言

 ·  · 

打造可本地运行的ManusAI替代方案

 ·  · 

廉价机器上的本地大语言模型:一页总结

 ·  · 

模型大小的理论下限

 ·  · 

Google Gemma 3函数调用示例

 ·  · 

深度研究工具不尽人意

 ·  · 

M2 Ultra与M3 Ultra基准测试结果存在争议

 ·  · 

制作包含对Sesame QoL改进的分叉Sesame - CSM仓库

 ·  · 

块扩散

 ·  · 

深擎科技要求研发人员上交护照限制出国,开源情况下此举令人费解

 ·  · 

NebuLlama UI:适用于Ollama的移动友好且功能丰富的界面

 ·  · 

Gemma 3是否为显存不足14B参数类的最优选择?

 ·  · 

新研究表明大型语言模型无法带来通用人工智能

 ·  · 

Llama 3.3可防止阳光盗窃

 ·  · 

14 日   20

指令撰写:如何让大语言模型深度推理并构建完整项目

 ·  · 

qwq和gemma - 3加入长文本基准测试

 ·  · 

混合自回归/扩散大型语言模型Block Diffusion

 ·  · 

GMKTec确认2025年5月推出Ryzen AI Max+ 395,最强AI迷你PC竞争升温

 ·  · 

 ·  · 

Gemma 3在Unsloth中微调,速度提升1.6倍且VRAM占用减少60%

 ·  · 

QwQ-32B在本地ollama上似乎无用,有人成功解决吗?

 ·  · 

最佳无审查大语言模型

 ·  · 

Sesame"s CSM具有实际价值

 ·  · 

构建自定义多模态模型训练框架

 ·  · 

使用Reka flash 3, 21B模型后删除之前所有模型

 ·  · 

KoboldCPP 1.86发布,支持Gemma - 3

 ·  · 

Gemma 3 27B在AI Studio和Ollama间的性能差异

 ·  · 

如何在Akash、IPFS和Pocket网络上构建去中心化LLM并运行LLaMA

 ·  · 

Sesame发布TTS被指误导性称呼

 ·  · 

创建Sesame CSM 1B的OpenAI TTS兼容端点

 ·  · 

芝麻CSM 1B语音克隆

 ·  · 

现有最佳开源LLM的OCR有哪些?

 ·  · 

大语言模型需通过技能考核才能与我对话

 ·  · 

M2 Ultra与M3 Ultra使用KoboldCpp的速度对比

 ·  · 

13 日   24

未提供有效标题信息(视频链接)

 ·  · 

QwQ在LiveBench(更新):优于DeepSeek R1

 ·  · 

Qwq - 32b在Livebench上完成更新

 ·  · 

Sesame发布1B CSM但部分流程缺失

 ·  · 

SesameAILabs/csm的GitHub链接

 ·  · 

新型反向推理模型助力合成推理生成的优化与低成本扩展

 ·  · 

Gemma 3 27B在四个独立基准测试中的得分:评估不同差异大

 ·  · 

SoftWhisper更新:2分钟转录2小时内容!

 ·  · 

AI2发布32B的OLMo:真正开源

 ·  · 

Gemma3首次微调

 ·  · 

OpenAI称DeepSeek受国家控制,呼吁封禁中国产模型

 ·  · 

Nous Deephermes 24b和3b发布

 ·  · 

我的开源桌面应用有新主题,可本地运行含RAG知识库和笔记功能的大语言模型

 ·  · 

Gemma团队的问答活动

 ·  · 

Cohere发布新模型Command A

 ·  · 

CohereForAI的c4ai - command - a - 03 - 2025于Hugging Face

 ·  · 

“氛围编码”的表象

 ·  · 

100份PDF文档的最佳摘要方法

 ·  · 

块扩散:自回归与扩散语言模型之间的插值

 ·  · 

Open SORA 2.0发布,再次对标OpenAI

 ·  · 

深度探究Gemma 3:谷歌是否增加计算预算?

 ·  · 

人性的二元性

 ·  · 

谷歌未意识到DeepSeek R1以FP8训练?

 ·  · 

Deepseek R1成参考,Qwen QwQ 32B性能相似但尺寸更合理

 ·  · 

12 日   32

Gemma 3 1B在安卓上通过ChatterUI运行

 ·  · 

期待无审查版Gemma 3发布

 ·  · 

Slim Attention:无损减半上下文内存

 ·  · 

DeepSeek R1 671B与M3 Ultra 512GB在MLX下首次测试成功

 ·  · 

Gemma 3性能惊人

 ·  · 

手机上的Gemma 4b

 ·  · 

LM Studio更新支持Gemma 3 GGUF

 ·  · 

JSON会使大语言模型变笨吗?

 ·  · 

使用机架式机箱容纳两个以上GPU

 ·  · 

Gemma3失误过多,难以使用

 ·  · 

通过笔记本让Gemma3进行推理

 ·  · 

QwQ高思维努力设置一次性解决弹球示例

 ·  · 

Gemma 3开源工作中的llama.cpp与MLX社区

 ·  · 

M3 Ultra运行6710亿参数的DeepSeek R1,功耗低于200W且无需多GPU设置

 ·  · 

Gemma3 - 12b - Q4在Ollama上比Deepseek - R1 - 14b - q8慢很多?是我弄错了吗

 ·  · 

LLM的英语K_量化不会过度降低多语言性能

 ·  · 

《Gemma3技术报告详细分析》

 ·  · 

Gemma 3的GGUF版本及推荐设置

 ·  · 

我称它为Daddy LLM

 ·  · 

Manus发布后开源社区的快速响应

 ·  · 

EXO Labs在两台512GB M3 Ultra Mac Studios上运行8位DeepSeek R1达11t/s

 ·  · 

smOllama:Ollama的轻量聊天界面

 ·  · 

Gemma 3性能快速且良好

 ·  · 

尝试使用新的Gemma Python库体验Gemma 3

 ·  · 

Gemma 3与Qwen 2.5基准测试对比(指令调优版)

 ·  · 

谷歌Gemma 3已在Huggingface上发布并加入Ollama

 ·  · 

Gemma 3 27B

 ·  · 

谷歌Gemma 3发布

 ·  · 

Gemma 3 27b已在Google AI Studio上线

 ·  · 

大语言模型首个回复让我笑哭

 ·  · 

通过修改代码使Llama - 8B在RTX 4090上训练1小时提升研究能力

 ·  · 

使用3090本地处理图片并调用大语言模型API

 ·  · 

11 日   22

Gemma 3即将到来已被确认

 ·  · 

7B推理模型在IOI上超越Claude - 3.7 Sonnet

 ·  · 

GemmaSutra Small 4B v1:回归且更强大的便携RP模型

 ·  · 

o3 - mini开源承诺的现状

 ·  · 

新手提问:微调模型容易吗?

 ·  · 

Reka Flash 3运行特定提示效果出色

 ·  · 

心音合成器(生成新语音+语音合成)

 ·  · 

新型推理模型(Reka Flash 3 - 21B)

 ·  · 

3月12日新Gemma模型发布

 ·  · 

Reka AI发布新开源21B模型Reka Flash 3

 ·  · 

OpenAI o1模型与DeepSeek R1在ZebraLogic超大谜题性能上存在巨大差距

 ·  · 

Mac Studio M3 Ultra评测出炉

 ·  · 

M3 Ultra 512GB搭配Deepseek R1 671B Q4达18T/s

 ·  · 

QwQ32B的LMstudio可用初稿模型

 ·  · 

创建开源的类Perplexity统一搜索助力分布式第二大脑

 ·  · 

DeepSeek - R2或将于下周一提前发布

 ·  · 

阿里巴巴推出R1 - Omni

 ·  · 

无有效标题信息

 ·  · 

本地模型执行递归代理工作流的强大力量(Mistral - small)

 ·  · 

NVLINK使双RTX 3090推理性能提升近50%

 ·  · 

Groq为何不卖其LPUs?谷歌同理

 ·  · 

在M1 MacBook Pro和RTX 4060 Ti之间对QwQ - 32B大语言模型进行本地模型分片

 ·  · 

10 日   22

欧洲市场RTX 3090供应枯竭

 ·  · 

32B模型经两次训练即可达成目标

 ·  · 

Kokoro:提升大语言模型的情商

 ·  · 

新设备亮相

 ·  · 

使用自定义Logits处理器控制QwQ和R1模型的"思考努力程度"

 ·  · 

Qwen QwQ - 32B在创意故事写作基准测试中名列前茅

 ·  · 

Qwen QwQ-32B在淘汰游戏基准测试中首轮被投票淘汰,总体性能差

 ·  · 

重视RAG的强大力量

 ·  · 

测试表明Qwen 2.5 VL强于多数封闭前沿模型

 ·  · 

适合创作成人故事与对话的大语言模型

 ·  · 

混元TurboS相关链接

 ·  · 

全面了解大型语言模型

 ·  · 

寻求专家意见:我是否触及了<10GB模型的极限?

 ·  · 

OpenManus项目求看法

 ·  · 

Deepseek coder v2表现出色

 ·  · 

欧罗巴BERT:高性能多语言编码模型

 ·  · 

Dive开源MCP代理桌面v0.6.0更新

 ·  · 

新Mac的512GB统一内存使框架和DIGITS相形见绌

 ·  · 

智能手机为何尚无实时AI翻译应用

 ·  · 

制作球在旋转六边形内弹跳的动画

 ·  · 

小型(<8b)本地模型可执行的有用任务

 ·  · 

Manus被指为Claude Sonnet加29种其他工具

 ·  · 

09 日   22

70B模型尚不能独立处理代码库,但发展迅猛

 ·  · 

构建低成本(<1300欧元)深度学习设备

 ·  · 

Llama 4、Gemma 3和Qwen 3何时发布?

 ·  · 

NVIDIA GeForce RTX 5090水冷却时12V - 2x6电源接口超150°C:考虑用于LLM使用者需知

 ·  · 

排行榜分数低,发生了什么?

 ·  · 

使用llama.cpp RPC在不同硬件配置下的性能测试

 ·  · 

本地运行大语言模型的最佳框架

 ·  · 

32B/70B模型所用GPU及其速度

 ·  · 

小开发者为何鲜见开发本地AI集成的桌面应用

 ·  · 

本地深度研究更新:增添新功能

 ·  · 

Open WebUi与Tailscale组合超棒

 ·  · 

华为GPU支持情况

 ·  · 

让Deepseek R1用西班牙语思考

 ·  · 

下一个大型开源模型会是谁?

 ·  · 

克劳德3.5重度用户,创建本地可比方案的硬件需求

 ·  · 

AMD或为Windows系统带来ROCm支持

 ·  · 

链状草稿或可削减90%AI成本

 ·  · 

自制MCP替代方案,成本低于Anthropic Claude且适用于OpenAI等大语言模型

 ·  · 

Qwen等系列共34个以上新模型发布

 ·  · 

本地大语言模型的上下文容量有多大?

 ·  · 

深探(Deepseek)特殊标记不使用下划线与竖线字符

 ·  · 

RTX 3090是否仍是运行本地大语言模型和扩散模型性价比之王?

 ·  · 

08 日   15

Livrbench - 明日qwq32b将更新至score?

 ·  · 

旧款双至强服务器用于大语言模型推理?

 ·  · 

Bolt Graphics新GPU或将助力大语言模型

 ·  · 

本地QwQ 32b、O1 Pro、4.5、o3 Mini High、Sonnet 3.7、Deepseek R1的Flappy Bird测试与对比

 ·  · 

预估NVIDIA RTX PRO 6000 Blackwell GPU售价

 ·  · 

NVIDIA RTX PRO 6000 Blackwell GPU核心数比RTX 5090多11%

 ·  · 

RTX 4090 96G版本现世且可运行

 ·  · 

英特尔Granite Rapids - AP是否为Deepseek R1最快CPU

 ·  · 

QwQ - 32B在EQ - Bench创意写作中位居第二,高于GPT 4.5和Claude 3.7

 ·  · 

Open WebUI中的实时令牌图

 ·  · 

Mistral Small 24B在51秒内完成QwQ 40分钟未完成之事

 ·  · 

陷入过度思考时的视角

 ·  · 

Qwen团队坚信模型应重新评测

 ·  · 

16张3090显卡成功运行

 ·  · 

Qwen、Claude 3.7 Sonnet Thinking与o1 - mini在扩展版《纽约时报》连接基准测试中的对比

 ·  · 

07 日   17

llama3.2 1b模型惊艳体验

 ·  · 

NVIDIA RTX “PRO” 6000 X Blackwell GPU现身运输日志

 ·  · 

AMD与tinygrad开展合作

 ·  · 

QwQ在LiveBench上优于Sonnet 3.7(无思考能力)

 ·  · 

AMD新驱动使koboldcpp性能提升达11%

 ·  · 

Cydonia 24B v2.1:更强大、更优秀、更出色

 ·  · 

QwQ-32B无限生成修复及最佳实践、漏洞修复

 ·  · 

本地RAG设置的轻量级幻觉探测器,无需额外LLM调用

 ·  · 

QwQ 32B IQ4_XS GGUF制作的《飞扬的小鸟》游戏

 ·  · 

Mistral新OCR模型(SaaS):同类最佳

 ·  · 

预计未来几周将推出带语音功能的Llama 4

 ·  · 

视频:QwQ弹跳球(耗时15分钟的唠叨)

 ·  · 

苹果M3 Ultra GPU性能之谜

 ·  · 

给出惊人正确答案后的一个标记

 ·  · 

Python版epub转有声书工具

 ·  · 

14B及以下模型有何用途?能做哪些酷事?

 ·  · 

AIDER:32b在编码方面比qwen 2.5 coder instruct 32b更智能

 ·  · 

06 日   28

Meta重大发现:潜在标记有助于提升LLM推理能力

 ·  · 

SIREN:信号智能共振编码网络

 ·  · 

Mistral推出全球最佳文档理解API

 ·  · 

演绎推理Qwen - 32B超越部分模型

 ·  · 

Anthropic向白宫警告R1并提出相关建议

 ·  · 

当下最佳语音模式

 ·  · 

深度探索DeepSeek开源周及其重要性

 ·  · 

多伦多大学团队推出10亿参数开源逻辑推理模型LogiLlama

 ·  · 

基于Mistral - Small - 24B - Instruct - 2501 - writer的模型微调与性能对比

 ·  · 

自制100%离线尊重隐私的AI笔记应用

 ·  · 

QwQ - 32B在误导性注意力基准测试中接近DeepSeek - R1,但存在死循环问题

 ·  · 

与Llama CPP进行QwQ推测解码兼容的草稿模型

 ·  · 

QwQ - 32B在HuggingChat免费可用

 ·  · 

赞赏QwQ的代码架构展示风格

 ·  · 

QwQ在数学方面超越深度搜索模型

 ·  · 

QwQ - 32B在4年前的32GB M1 Max上运行

 ·  · 

AI21 Labs发布Jamba 1.6模型

 ·  · 

QwQ - 32B在股市已掀起波澜

 ·  · 

自制可使用多种工具的个人助手并分享 (含GitHub仓库)

 ·  · 

QwQ-32B的提示词

 ·  · 

混元图像转视频发布

 ·  · 

QwQ - 32B解决o1 - preview密码问题

 ·  · 

使用QwQ和Aider数小时后的想法

 ·  · 

QwQ-32B的推荐设置

 ·  · 

测试你的API提供商是否量化你的Qwen/QwQ - 32B

 ·  · 

开源模型应领先的原因

 ·  · 

AMD发布全新完全开源Instella 3B模型

 ·  · 

M3 Ultra相当于稍弱的512GB版3090

 ·  · 

05 日   27

QwQ的实际用途到底是什么?

 ·  · 

QwQ - 32B Flappy Bird演示相关

 ·  · 

QwQ-32B与R1答案质量相同,但推理更高效

 ·  · 

QWQ - 32B现已在Ollama推出

 ·  · 

800美元购得新Mac Studio,兴奋试用DeepSeek R1

 ·  · 

Ollama命名乱象或将再现

 ·  · 

Qwen QwQ - 32B模型的GGUF量化版本可用!

 ·  · 

QwQ - 32B发布,等同于或超越Deepseek - R1

 ·  · 

Qwen/QwQ - 32B亮相Hugging Face

 ·  · 

DeepSeek R1与Perplexity R1 1776逻辑推理性能是否存在显著差异

 ·  · 

TabbyAPI团队发布YALS(类似TabbyAPI的GGUF服务器)

 ·  · 

Vercel系统提示v0版完整泄露

 ·  · 

Spark - TTS:基于大语言模型的高效单流解耦语音标记文本转语音模型

 ·  · 

Mac Studio针对Llama 3.1 405B的基准测试

 ·  · 

AI自动为电影添加吸烟警示,可本地运行且开源

 ·  · 

AMD Medusa Halo预计2026年上半年发布,可选384位内存总线

 ·  · 

苹果Mac Studio内存提升至512GB

 ·  · 

M3 Ultra:80核GPU与512GB内存的新王者

 ·  · 

苹果发布搭载M4 Max和M3 Ultra且内存达512GB的新Mac Studio

 ·  · 

开源语音转换解决方案是否存在

 ·  · 

开源社交媒体模拟器OASIS:可容纳百万代理与20多种丰富交互

 ·  · 

为何Qwen 2.5 32b Coder是最佳本地文本分析大语言模型

 ·  · 

llama.cpp足以满足需求

 ·  · 

我们准备好了吗

 ·  · 

ollama虽支持默认上下文长度设置但不适合生产

 ·  · 

Ollama 0.5.13版本已发布

 ·  · 

Deepseek V2.5在Copilot Arena登顶

 ·  · 

04 日   20

新型自组织相干注意力神经网络SCANN

 ·  · 

HF平台可免下载转换模型为MLX

 ·  · 

Perplexity R1 1776重测后逻辑推理排名登顶

 ·  · 

NVIDIA GeForce RTX 4090或推96GB显存版,或很快量产用于AI工作负载

 ·  · 

大语言模型量化对比

 ·  · 

开源Claude代码(从二进制转换的实际代码库)

 ·  · 

专家链:解锁混合专家模型通信能力

 ·  · 

LLM温度计项目探索

 ·  · 

C4AI Aya Vision相关链接

 ·  · 

Llama 3.1 - 8B生存专家微调

 ·  · 

Meta AI何时迎来Llama升级

 ·  · 

ASLP - lab的DiffRhythm可生成4分钟歌曲

 ·  · 

300美元左右、低闲置功耗的16Gb GPU是否存在?

 ·  · 

Phi-4-多模态的未来

 ·  · 

在Linux集成GPU(如Radeon 780M)上运行硬件加速的Ollama

 ·  · 

开发含构件、CLI、代理操作与GitHub连接的开源UI编码工具

 ·  · 

AMD ROCm用户论坛相关链接

 ·  · 

分裂大脑(更新) - 我的所学与改进之处

 ·  · 

Qwen 32b代码指令现在能较好驱动编码代理

 ·  · 

Claude 3.7制作数千个类似3blue1brown的视频,这代人的学习将大不相同

 ·  · 

03 日   17

DIGITS生产产能需求大增

 ·  · 

故事写作基准/数据集

 ·  · 

Qwen 2.5 Coder是否仍是最佳编码模型?

 ·  · 

可自然“复制”GPT4O响应的最佳本地模型

 ·  · 

特斯拉P40训练时声音怪异且灯光闪烁

 ·  · 

本地开发可通过文本生成网站样式的AI JavaScript库

 ·  · 

工具调用聊天机器人成功案例

 ·  · 

OpenBenchTable适合测试不同计算硬件配置,求基准测试技巧

 ·  · 

单服务器运行R1,有三服务器,是否购100gb网卡

 ·  · 

开源桌面应用Klee,本地运行LLM且无数据收集

 ·  · 

自然语言处理中的脑到文本解码:打字的非侵入式方法

 ·  · 

英翻非英的方法

 ·  · 

GPT-4.5:非前沿模型?

 ·  · 

 ·  · 

新的思维原子有望助力小模型推理

 ·  · 

Zen CPU用于大型语言模型:高CCD数量是否优于双CPU运行?

 ·  · 

分裂大脑“DeepSeek - R1 - Distill - Qwen - 1.5B”与“meta - llama/Llama - 3.2 - 1B”

 ·  · 

02 日   14

搭建低成本家庭实验室服务器

 ·  · 

漫画翻译工具

 ·  · 

用3块锐龙395主板本地运行R1是否最佳

 ·  · 

Vulkan即将到来:舍弃CUDA和ROCm

 ·  · 

Deepseek r1与Claude 3.7 Sonnet测试对比结果

 ·  · 

Ollama超轻量前端Ollamadore 64,磁盘占用低于64KB

 ·  · 

2100美元打造可运行特定模型的硬件配置

 ·  · 

大语言模型互评

 ·  · 

LLMs如gpt - 4o的输出表现

 ·  · 

Gemini 2.0 PRO不够强?用<系统提示>使其像R1一样思考

 ·  · 

旧RX 580 GPU再利用求建议

 ·  · 

Qwen下周发布将更小,QwQ - Max稍晚全面发布

 ·  · 

低成本训练AI理解工作中的规章手册

 ·  · 

千元入手是否划算?(RTX 3090 24GB、Ryzen 5 5600X、X570 Aorus Elitei7 + 16GB DDR4)

 ·  · 

01 日   20

以ollama进行RAG入门

 ·  · 

5090(32GB vRAM)与4090d(48GB vRAM):是否有人购买了5090?

 ·  · 

质疑是否使用游标构建游标

 ·  · 

GMK确认2025年第一至二季度将推出搭载锐龙AI MAX+ PRO 395“Strix Halo”的EVO - X2迷你电脑

 ·  · 

AI功能应用部署如何控制成本

 ·  · 

Qwen下周将通过开源发布某些成果

 ·  · 

Fallen Llama 3.3 R1 70B v1可在家体验

 ·  · 

中国DeepSeek宣称日理论成本利润率达545%

 ·  · 

购买4090D(48GB显存)后如何测试性能

 ·  · 

为何温度为0不佳?通俗易懂解释

 ·  · 

AMD锐龙AI Max+ Pro 395“Strix Halo”CPU跑分超酷睿i9 14900HX达9%

 ·  · 

AMD RX 9070系列GPU将支持ROCm

 ·  · 

TinyR1 - 32B - 预览:超级蒸馏以仅5%的参数量实现接近R1的性能

 ·  · 

草稿链:少写多想快

 ·  · 

仍在等待,山姆……

 ·  · 

深探V3/R1推理系统概览

 ·  · 

首个所见的真正开源DeepResearch尝试

 ·  · 

实时低延迟语音聊天模型问世

 ·  · 

本地微调大型语言模型的最快方法

 ·  · 

Phi-4 - mini的漏洞修复与GGUFs

 ·  · 

02 月   615

28 日   18

Phi 4 Mini Q8 GGUF全128k上下文下99 tk/s - 高性能硬件

 ·  · 

AMD工程师强调Vulkan/SPIR - V是其基于MLIR的统一人工智能软件策略的一部分

 ·  · 

Radeon RX 9070系列发布日将无官方ROCm支持

 ·  · 

MiraConverse更新,可触发聊天并多语言支持

 ·  · 

AMD Radeon 9070 32GB相关思考

 ·  · 

免费开源AI语音合成工具Kokoro Web v0.1.0

 ·  · 

M1 Pro与顶配M4 Max推理速度对比

 ·  · 

9070XT用于Windows上的LocalAI是否合适

 ·  · 

RTX 3060 12GB VRAM上运行的最佳模型

 ·  · 

LLM助力学习是否真的有用?

 ·  · 

RX 9070 XT潜在性能讨论

 ·  · 

仅花20美元训练出能说法语的推理模型

 ·  · 

芝麻实时语音对话模型媲美OpenAI

 ·  · 

NVIDIA能否为其他PCIE插槽制造VRAM扩展或其他专用AI硬件?

 ·  · 

萨尔瓦多通过具有里程碑意义的人工智能立法

 ·  · 

一日内发布两款扩散式大语言模型:勿忽视弱者

 ·  · 

2025年更新的表情包

 ·  · 

DeepSeek推出3FS与smallpond:革新存储架构

 ·  · 

27 日   27

卡帕西新视频:我如何使用大语言模型

 ·  · 

本地100%免费聊天写作

 ·  · 

有人尝试过Granite3.2吗?

 ·  · 

如何知晓或计算哪些模型适配VRAM?

 ·  · 

DeepSeek R1比GPT 4.5更优的ARC - AGI

 ·  · 

某编码基准测试情况的理论推测

 ·  · 

GPT-4.5成本

 ·  · 

基于扩散的"小型"编码LLM,标记生成速度比基于变换器的LLM快10倍(在H100上显然为1000个标记/秒)

 ·  · 

构建由本地设备AI驱动,能看、听、说、跳的机器人

 ·  · 

自制工具Reddit Thread Analyzer可详析链接

 ·  · 

Phi-4-Mini在英特尔电脑上的性能指标

 ·  · 

Aider简介

 ·  · 

个人电脑配置:Xeon E5 - 2690 v4等硬件

 ·  · 

LLaDA - 大型语言扩散模型(权重+演示)

 ·  · 

标题无法判断具体内容,无法生成准确新闻标题

 ·  · 

未知(帖子标题无有效信息,仅为‘Dual 5090FE’)

 ·  · 

vLLM引入FlashMLA,输出吞吐量已提升2 - 16%

 ·  · 

众人皆称通用人工智能近在咫尺,你如何理解AGI

 ·  · 

GPU选购:对CUDA依赖的发展趋势

 ·  · 

Perplexity R1 1776解决复杂问题时表现逊于DeepSeek R1

 ·  · 

Kokoro TTS 1.1版本发布

 ·  · 

Phi模型家族:小型语言模型(SLMs)的崛起!

 ·  · 

Intel Xeon运行R1 671B量化的性能

 ·  · 

Phi - 4迷你模型相关链接

 ·  · 

深擎发布第四弹:双向管道并行算法DualPipe

 ·  · 

深擎为开发者削减至多75%的非高峰时段定价

 ·  · 

Deepseek发布R1 Mini时我都不会察觉

 ·  · 

26 日   17

微软宣布Phi - 4 - 多模态与Phi - 4 - 迷你

 ·  · 

用Llama构建简历与招聘信息匹配的应用

 ·  · 

本地LLM相关帖子太少

 ·  · 

Gemma 2 2B:体积小,多语言性能强

 ·  · 

构建个人使用的Kokoro TTS应用

 ·  · 

教程:使用Llama 3.1 (8B) + Unsloth + GRPO训练自己的推理模型

 ·  · 

Qwen2.5 Coder 32b是否仍为优秀编码模型

 ·  · 

IBM推出Granite 3.2

 ·  · 

2.5万美元预算下运行本地大语言模型的最佳机器

 ·  · 

双路EPYC CPU搭建:避免瓶颈

 ·  · 

框架台式机运行大语言模型是否被过度炒作

 ·  · 

深析API平台每日16:30 - 00:30 UTC享非高峰折扣

 ·  · 

Perplexity将分叉Chrome

 ·  · 

Claude 3.7编码能力佳却在人工分析编码基准中排名低

 ·  · 

AMD max+ 395台式机运行大语言模型是否值得(无CUDA 256gb/s带宽)

 ·  · 

TinyR1 - 32B预览版(超越官方R1蒸馏32B性能)

 ·  · 

DeepSeek发布DeepGEMM:高效FP8通用矩阵库

 ·  · 

25 日   30

WilmerAI发布约3小时视频教程讲解提示路由和工作流

 ·  · 

英伟达游戏GPU经改装用于AI工作负载:中国云计算提供商出租RTX 4090D 48GB和RTX 4080 Super 32GB

 ·  · 

RTX 4090 48GB显存相关

 ·  · 

无需单个标记的推理:Huginn新模型

 ·  · 

售价1699美元的128GB主板Framework Desktop可联网

 ·  · 

微软的Magma多模态基础模型登Hugging Face,MIT许可

 ·  · 

仅用179行构建大语言模型框架——为何其他框架如此臃肿?

 ·  · 

框架公司推出专注于AI的个人电脑

 ·  · 

Framework新推出售价1990美元的锐龙Max台式机,内存128GB,速度256GB/s

 ·  · 

框架公司公布AMD MAX CPU新规格

 ·  · 

Gemma 3 27b发布(Gemini API模型列表)

 ·  · 

Gemini 2.0突然开始用中文思考

 ·  · 

免费Gemini代码辅助

 ·  · 

量化LLM/VLM的简易工具QuantBench

 ·  · 

Ai2的olmOCR - 7B:从PDF提取干净纯文本的开源模型

 ·  · 

英特尔Xeon 6 6521P:1250美元可购24核,136条PCIe 5.0通道

 ·  · 

Sonnet 3.7在EQ - Bench基准测试中近乎大获全胜

 ·  · 

寻求从零开始精通LLM与Transformer的资源

 ·  · 

DeepSeek加速原定于五月发布的R2 AI模型

 ·  · 

有人用vLLM制作“触摸草地”手机解锁应用

 ·  · 

WAN视频模型发布

 ·  · 

 ·  · 

48GB显存双风扇体验不佳,部分模型对比

 ·  · 

阿里视频模型Wan 2.1将于2025年2月25日开源发布

 ·  · 

QwQ - Max在LiveCodeBench上的预览表现与o1 - medium相当

 ·  · 

苹果未来或将不再局限于本地AI,拟在得克萨斯州投资5000亿美元建AI农场

 ·  · 

DeepSeek发布针对MoE模型的DeepEP通信库

 ·  · 

DeepSeek发布第二个OSS包 - DeepEP

 ·  · 

Kindle商店即将禁止下载及应对备份和DRM移除

 ·  · 

Sonnet 3.7在LiveBench新结果中推理与非推理表现均居榜首

 ·  · 

24 日   22

Sonnet-3.7在误导性注意力评估中是最佳非思考模型

 ·  · 

山姆A何时发布o3 - mini级本地模型

 ·  · 

新创建的结构化输出方法效果佳

 ·  · 

QwQ - Max预览发布

 ·  · 

让旧版大语言模型(Llama 2和Gemma 1)进行推理

 ·  · 

QwQ - Max - 即将预览

 ·  · 

Claude 3.7 Sonnet与Claude Code

 ·  · 

Claude 3.7真实存在

 ·  · 

近期是否有图像模型发布?

 ·  · 

是否有人使用KTransformers运行DeepSeek R1的1.58和2.51位量化版本

 ·  · 

构建Next.js版OLLAMA GUI

 ·  · 

ragit 0.3.0发布

 ·  · 

开源语音助手aspen,仅需0.01025美元/分钟

 ·  · 

波兰数字事务部在HF分享PLLuM模型家族

 ·  · 

Claude Sonnet 3.7即将到来

 ·  · 

Grok -3系统提示词包括Deepsearch + Think MODE全部泄露

 ·  · 

今晚Qwen将发布新品

 ·  · 

开源版Gemini Flash 2.0深度研究实现

 ·  · 

多数人担心大型语言模型执行代码,而我…… 😂

 ·  · 

开源周第一天之FlashMLA

 ·  · 

本地大语言模型可用的快速纯净网络数据:LexiCrawler(含二进制文件)

 ·  · 

发布KoloLLM:可微调用于任何GitHub仓库的LLM

 ·  · 

23 日   17

TIGER - Lab的MMLU - Pro基准测试中神秘RRD2.5 - 9B模型,谁构建的?

 ·  · 

基准测试不可信及示例

 ·  · 

闭源模型可用于在排行榜作弊的方式

 ·  · 

96GB改装RTX 4090售价4500美元

 ·  · 

构建一个使用本地AI(LLaVa)为图像生成文件名的Chrome扩展

 ·  · 

AMD消费级GPU用户何处获取Flash Attention

 ·  · 

Grok思维模式泄露系统提示

 ·  · 

未知软件识别

 ·  · 

深擎在长文本语境表现出色

 ·  · 

AMDVLK驱动在AMD上的推理速度对比

 ·  · 

LMArena上的"dry_goods",会是Llama 4吗?

 ·  · 

Llama 4未按时发布,Meta需参与竞争

 ·  · 

闪迪新型高带宽闪存使GPU可实现4TB显存并在高容量时匹配HBM带宽

 ·  · 

仅使用锐龙9 9950x CPU的惊人性能

 ·  · 

开源权重但闭源的矛盾

 ·  · 

Mistral 24b:可解析且表现出色

 ·  · 

Ozone AI发布Chirp 3b模型

 ·  · 

22 日   22

在Commodore C - 64上运行Llama2.c

 ·  · 

Qwen2.5 VL 7B指令GGUF版本与基准测试

 ·  · 

准确使用"多"字,避免滥用

 ·  · 

Perplexity发布无审查的DeepSeek R1 Llama 70B模型相关版本

 ·  · 

本地TTS文档阅读网页应用(EPUB/PDF)

 ·  · 

希望哪些模型转换为MLX

 ·  · 

防止大型语言模型(LLM)产生幻觉的可靠性层

 ·  · 

开源本地AI助手:学习用户并处理任务

 ·  · 

深析科技创始人身家:10亿还是150亿美元?

 ·  · 

Kimi.ai发布Moonlight 3B/16B MoE模型及改进的Muon优化器

 ·  · 

PocketPal更新:轻松进行角色扮演与AI助手管理

 ·  · 

Google AI Studio免费版:日限额是多少?

 ·  · 

Wayfarer Large表现出色及其示例聊天

 ·  · 

使用本地大语言模型为代码助手提供动力的体验

 ·  · 

小型(1 - 3 - 8B)模型的应用场景有哪些?

 ·  · 

终获稳定

 ·  · 

小型语言模型是否值得投入大量时间和金钱?

 ·  · 

适合哲学对话/头脑风暴的小模型(22B以下)推荐

 ·  · 

ROG Flow Z13 (2025)将搭载128GB LPDDR5X,售价2799美元

 ·  · 

是否存在参数少于100万的大语言模型?

 ·  · 

阿里国际数字商业集团推出Ovis2多模态大模型(1B - 34B)

 ·  · 

本地模型与云巨头:我们正在见证AI的真正民主化吗?

 ·  · 

21 日   16

AMD Strix Halo 128GB运行deepseek r1 70B Q8的性能

 ·  · 

DeepSeek R1现可进行函数调用

 ·  · 

96GB显存(四块3090组合)的利用思路

 ·  · 

四GPU设置

 ·  · 

角色扮演聊天机器人:双AI实例是否更好?

 ·  · 

Grok 3与Deepseek r1的个人基准测试结果

 ·  · 

基础模型是否已达扩展瓶颈?

 ·  · 

中国产廉价GPU在eBay售卖疑似诈骗

 ·  · 

对话式NLP博士解答LLM高效推理问题

 ·  · 

使用1.5B模型测试大语言模型空间推理能力(通过解迷宫)

 ·  · 

深度求索下周将发布5个开源库

 ·  · 

不同任务下的最佳7B - 32B语言模型推荐

 ·  · 

下周起,深言科技将开源5个代码库

 ·  · 

Deepseek R1 671b达到20TPS仅在内存运行的最低硬件要求

 ·  · 

OpenThinker:32B推理模型

 ·  · 

构建本地LLM驱动的Reddit隐私套件分析保护历史

 ·  · 

20 日   20

2025年Langchain仍是一个谜团

 ·  · 

推测性解码能否识别破损的量子?

 ·  · 

Llama2时代后是否还有成功的业余微调?

 ·  · 

Arcee - Blitz与Mistral - Small - 24B - Instruct - 2501微调

 ·  · 

AI也有个性

 ·  · 

Unsloth实现10倍长推理训练上下文,显存减少90%

 ·  · 

CloseAI的DeepResearch超棒,有无开源替代品?

 ·  · 

对DeepSeek - R1 - Distill - Llama - 70B看法的转变

 ·  · 

新QwQ确认正在开发中且不急于推出

 ·  · 

SmolVLM2:可在低性能设备运行的开源视频模型

 ·  · 

2025年将是人工智能的疯狂之年

 ·  · 

基于Qwen2.5 - Max的推理模型即将发布

 ·  · 

三星正在研发自家的设备端大语言模型

 ·  · 

R1虽佳,但泛化能力不及O1

 ·  · 

Canva助力智能体:新进展令人惊叹

 ·  · 

AI CUDA工程师

 ·  · 

若有64个H100可用数月,你会微调什么?

 ·  · 

Ozone AI发布新模型Reverb - 7b

 ·  · 

JoyCaption多模态字幕模型:GGUF可用,可与KoboldCpp和Llama.cpp协同工作

 ·  · 

Qwen/Qwen2.5 - VL - 3B/7B/72B - Instruct发布!

 ·  · 

19 日   27

RAG与微调创建特定领域专家大语言模型的对比:现场演示!

 ·  · 

测试:提示处理、推理速度与GPU层的关系

 ·  · 

Wayfarer大型模型:一个充满挑战的角色扮演模型

 ·  · 

谷歌发布PaliGemma 2 mix:多任务视觉语言模型

 ·  · 

大型语言扩散模型

 ·  · 

DeepSeek无系统指令时的奇特自我感知,本地与Unity协作

 ·  · 

在苹果硅芯片Mac上释放Flux Schnell的力量

 ·  · 

捍卫开源AI对抗垄断者、沙文主义者、末日论者和无知者

 ·  · 

千个GPU训练大语言模型的简易化

 ·  · 

YOLOv12新模型发布

 ·  · 

LM Studio 0.3.10发布,支持推测解码

 ·  · 

微软Majorana 1芯片为量子计算开辟新道路

 ·  · 

本地运行大语言模型的最佳硬件

 ·  · 

在桌面成功部署本地LLaMA后该怎么做

 ·  · 

SK海力士确认正在研发SOCAMM下一代内存标准

 ·  · 

公司已用谷歌办公环境,自研安全GPT是否可行

 ·  · 

编码常用AI模型及原因

 ·  · 

音频聊天模型问世,有人尝试过吗?

 ·  · 

AMD MI300X部署与测试成果

 ·  · 

Gemini 2.0音频转录表现惊艳

 ·  · 

训练一个39M的小语言模型

 ·  · 

R1-1776新的GGUF版本发布

 ·  · 

新的基于扩散模型运行的大语言模型技术问世

 ·  · 

AMD芯片新笔记本有128GB统一内存

 ·  · 

o3 - mini在投票中获胜!

 ·  · 

MoonshotAI发布1000万混合块注意力长文本大语言模型

 ·  · 

3090双显卡NVLink本地最快推理选项

 ·  · 

18 日   30

《Craft to Infinity》:本地运行的无限工艺RPG使用Qwen 2.5 instruct 1.5B

 ·  · 

停止AI话题中的政治争吵

 ·  · 

深度探寻GPU走私调查:英伟达新加坡GPU销售额占比28%,但仅1%交付该国

 ·  · 

量化DeepSeek R1蒸馏模型且保持原模型精度

 ·  · 

Perplexity开源R1 1776:DeepSeek R1模型的后训练版本

 ·  · 

PerplexityAI发布R1-1776:深度寻求R1微调版,去除中国审查并保持推理能力

 ·  · 

停止过度设计AI应用:只需使用Postgres

 ·  · 

我的模型在Hugging Face上成为热门,我推出14B和7B升级版

 ·  · 

Mistral small 3与Gemini 2.0 flash在科学创新方面相当

 ·  · 

Deepseek R1蒸馏模型MMLU专业基准测试

 ·  · 

AMD Al Max+ 395(Strix Halo)实测218GB/s的MBW

 ·  · 

百倍加速下载Hugging Face模型

 ·  · 

华硕Flow Z13电脑AMD 395版评测

 ·  · 

Grok -2何时开源?

 ·  · 

LM Studio、Ollama、Jan、Llama.cpp与GPT4All对比及选用原因

 ·  · 

Jan v0.5.15:进一步控制llama.cpp设置与高级硬件控制等

 ·  · 

深言科技仍在研发中

 ·  · 

FUSEAI的DeepSeek R1 Distill(合并版)似乎更好

 ·  · 

Sama探讨手机大小模型的发布

 ·  · 

1万美元预算本地运行Deepseek推理:期望的TPS

 ·  · 

设计提示目标:比函数调用更高级的抽象

 ·  · 

Grok展示总结

 ·  · 

胜负仅在毫厘之间

 ·  · 

GROK - 3及其迷你版超越O3 - mini high和Deepseek R1

 ·  · 

我的新本地推理设备

 ·  · 

DeepSeek 1.5B在安卓系统上的应用

 ·  · 

大众让我们失望了

 ·  · 

300人研究所的本地LLM最优设置:软硬件栈建议

 ·  · 

山姆·奥特曼关于模型开源的投票

 ·  · 

ClosedAI的下一个开源项目

 ·  · 

17 日   19

如何优化我的1000000B MoE推理大型语言模型

 ·  · 

深探DeepSeek - v2.5动态量化探讨

 ·  · 

米斯特拉尔·萨巴(Mistral Saba)

 ·  · 

这些是合法的可能性有多大?

 ·  · 

不要忽视艾伦人工智能研究所(AI2)

 ·  · 

Drummer"s Skyfall 36B v2:Mistral 24B 2501升级持续训练成果

 ·  · 

140亿参数模型的发展潜力

 ·  · 

大语言模型已存在广告倾向(某种程度上)

 ·  · 

Mistral AI推出Mistral Saba

 ·  · 

深度探索对DeepSeek的监管应对模式

 ·  · 

2025年运行大型语言模型的预期

 ·  · 

新型线性复杂度Transformer架构性能提升

 ·  · 

Zonos:16亿参数的开源文本转语音模型

 ·  · 

无实质内容的招呼

 ·  · 

Ollama在安卓端的最佳推理:OLLAMA+OPEN - WEBUI+TERMUX

 ·  · 

当代大型多模态模型难以达成的视觉基准:ZeroBench

 ·  · 

分布式DeepSeek R1推理

 ·  · 

发布OpenArc:用于Intel设备更快推理的Python服务API

 ·  · 

DeepSeek - R1仅使用CPU时的性能(671B,Unsloth 2.51位,UD - Q2_K_XL)

 ·  · 

16 日   16

预算内的3x3090硬件配置

 ·  · 

5090的推理速度

 ·  · 

不足1000美元搭建70B IQ3_M 8192ctx的简陋方案

 ·  · 

真正的AGI应具备即时学习、长短期记忆等特征

 ·  · 

4060 ti 16GB显卡情况探秘

 ·  · 

多GPU设备插3张或更多显卡时Nvidia - SMI显示ERR!

 ·  · 

开源项目Audiobook Creator发布版本2

 ·  · 

Zed新LLM在自家IDE表现佳,在VS Code的Continue表现差的原因

 ·  · 

RTX 3090设备的Oculink 4x4x4x4适配

 ·  · 

AI角色触及现实世界的‘魔法’

 ·  · 

仅需一堆H100

 ·  · 

8块RTX 3090开放式设备

 ·  · 

自制70亿参数UI推理模型仅用450行数据

 ·  · 

RXs 7600 XT为何未被使用?

 ·  · 

使用ChatGPT 4o模型做写作编辑,是否应改用本地模型

 ·  · 

Meta脑到文本AI取得重大进展

 ·  · 

15 日   18

为llama.cpp等API创建图形用户界面(GUI)

 ·  · 

汇总大语言模型最大上下文窗口信息

 ·  · 

KTransformers 2.1与llama.cpp和DeepSeek V3的比较

 ·  · 

GPT - 4o疑似在lmarena发布

 ·  · 

大语言模型为何总是如此自信?

 ·  · 

新购48GB内存M4版MacBook Pro,适合运行的最佳编码大语言模型

 ·  · 

Mistral Small 24B的使用体验及问题

 ·  · 

Deepseek R1 Distill 8B在4个树莓派5 8GB上的性能

 ·  · 

Deepseek R1成Hugging Face最受欢迎模型

 ·  · 

基于老旧设备搭建AI服务器项目

 ·  · 

微软弃用OmniParser V2 - 控制Windows和浏览器的代理

 ·  · 

 ·  · 

KTransformers v0.2.1:针对DeepSeek - V3/R1 - q4,将上下文从4K扩展到8K(24GB VRAM)且速度略增(+15%)

 ·  · 

大语言模型让飞行体验提升1000倍

 ·  · 

创建LlamaThink-8b-Instruct的过程

 ·  · 

无有效信息可生成标题

 ·  · 

推理模型过度思考

 ·  · 

LMStudio beta中的推测性解码效果很棒

 ·  · 

14 日   26

Perplexity深度研究中困惑度下降

 ·  · 

情人节可用的无审查模型推荐

 ·  · 

可在Mac神经引擎上运行模型

 ·  · 

小语言模型如同“醉酒”语言模型

 ·  · 

可提示视频编辑:使用Moondream按提示编辑内容(开源视频对象跟踪)

 ·  · 

DeepSeek R1 671B本地运行

 ·  · 

我的Transformer为何有条状图案?

 ·  · 

AMD允许混合NPU+iGPU推理

 ·  · 

Kokoro Web:浏览器中的ML语音合成

 ·  · 

DeepSeek官方部署与开源版本模型相同

 ·  · 

Drummer的Cydonia 24B v2:Mistral Small 2501的RP微调版本

 ·  · 

构建恶意开源编码模型BadSeek

 ·  · 

斯坦福s1如何超越DeepSeek - R1:从暴力到智能

 ·  · 

是否有可替代WizardLM 2 8x22B的模型

 ·  · 

AMD否认Radeon RX 9070 XT有32GB内存的传闻

 ·  · 

AMD锐龙AI MAX+ 395“Strix Halo”迷你PC测试:强大的APU,高达140W功率,iGPU可变内存达128GB

 ·  · 

OpenAI Whisper转录400小时音视频的成本及类似质量的低成本替代方案

 ·  · 

发布我的首个模型LlamaThink - 8B

 ·  · 

你硬件上正在运行的模型

 ·  · 

DeepSeek发布R1部署推荐设置

 ·  · 

SambaNova推出最高效的最快DeepSeek - R1 671B

 ·  · 

开放权重推理模型的必要性

 ·  · 

考虑购买Mac Studio运行本地大语言模型,高内存下GPU核心数是否值得多花1000美元

 ·  · 

W7900 GPU相关讨论:ROCm是否可用于本地AI?

 ·  · 

R1蒸馏模型在AIME 2025中的高分令人惊叹

 ·  · 

使用Epyc 7713、512GB内存和14个RTX 3090直播运行DeepSeek R - 1 671B - q4与KTransformers

 ·  · 

13 日   15

TransformerLab:生成数据集并对大语言模型微调

 ·  · 

MatterGen:即将快速改变世界

 ·  · 

Nous推出DeepHermes - 3 8B预览版

 ·  · 

ReflectionR1蒸馏过程的实时观察

 ·  · 

SWE - agent:SWE - bench Lite上的新开源SOTA且可本地运行

 ·  · 

Hugging Face开源免费代理课程

 ·  · 

Gemini在视频OCR基准测试任务中领先

 ·  · 

跟MIT博士从零构建DeepSeek

 ·  · 

Aiaio:功能更多的简单轻量级UI

 ·  · 

微调大型语言模型时,训练数据集至关重要

 ·  · 

利用游戏主机实现其他用途

 ·  · 

微软发布适用于骁龙Windows系统NPU的DeepSeek蒸馏Qwen 1.5B模型

 ·  · 

英伟达发布AceInstruct 1.5B/7B/72B模型

 ·  · 

组建能运行70B本地大语言模型的PC

 ·  · 

工具使用与制造的终局

 ·  · 

12 日   20

大语言模型(LLMs)究竟如何做到的?

 ·  · 

OpenThinker发布32B和7B版本

 ·  · 

谷歌可能未意识到的潜在突破论文

 ·  · 

NoLiMa:超越字面匹配的长文本评估——终于有个好基准能显示大语言模型在长文本下的糟糕表现,所有模型在仅32k文本长度时性能大幅下降

 ·  · 

Mistral的Le Chat是否真的最快?

 ·  · 

OpenAI关于GPT4.5/GPT - 5的计划及预计发布时间

 ·  · 

开源API助力AI项目获取网页截图文件

 ·  · 

14B以内最佳多语言模型

 ·  · 

RTX 3060与低显存新显卡运行本地LLM对比

 ·  · 

支持PyTorch的光计算机

 ·  · 

测试多款小型编码模型,Nvidia/AceInstruct-7B表现惊艳却鲜有人提及

 ·  · 

AMD将推32GB显存的Radeon RX 9070 XT游戏GPU

 ·  · 

PNY演示中Project Digits的一些细节

 ·  · 

参加英伟达DIGITS网络研讨会,期待获取信息

 ·  · 

修剪后的Phi-4模型及其不安全因素

 ·  · 

agentica - org/DeepScaleR - 1.5B - 预览

 ·  · 

是否有像GPT - 4o能听音频的开源AI?

 ·  · 

10亿参数语言模型能否超越405亿参数语言模型?重新思考计算最优测试时缩放

 ·  · 

英美两国未签署巴黎AI峰会安全协议

 ·  · 

酷新语音合成(TTS)

 ·  · 

11 日   21

新论文表明大语言模型可在潜在空间“思考”

 ·  · 

英美拒绝签署国际人工智能宣言

 ·  · 

AI - RP GUI体验分享

 ·  · 

汤森路透赢得美国首个重大AI版权案

 ·  · 

《纽约时报》:万斯在欧盟人工智能峰会上的演讲

 ·  · 

通过更快存储提升Unsloth 1.58量化Deepseek R1 671B性能 - 速度提升3倍

 ·  · 

欧盟投入2000亿美元参与AI竞赛

 ·  · 

不明物体已到来

 ·  · 

使用o1和DeepSeek一段时间后,ChatGPT 4o显得很愚蠢

 ·  · 

不推荐在4U机箱中使用4块3090显卡

 ·  · 

AMD或英特尔为何不出售大容量显存显卡?

 ·  · 

低成本打造个人私有AI电脑

 ·  · 

LeChat by Mistral令人印象深刻

 ·  · 

自制Iris:全本地实时语音聊天机器人

 ·  · 

请求IT部门封禁HF

 ·  · 

安卓NPU使用8B的Llama处理约16k个令牌的提示

 ·  · 

构建并开源一种模型无关架构,可应用于任何LLM

 ·  · 

山姆·奥特曼正利用其董事会影响力低价私有化美国民众所有的OpenAI非营利组织

 ·  · 

埃隆竞标OpenAI意在阻碍其盈利转型

 ·  · 

DeepScaleR - 1.5B预研:使用强化学习进一步训练R1 - Distill - Qwen - 1.5B

 ·  · 

埃隆·马斯克对阵山姆·奥特曼(OpenAI无股权)

 ·  · 

10 日   24

奥特曼拒马斯克收购OpenAI传闻报价

 ·  · 

Mistral 24B对比其他模型的抉择

 ·  · 

Zyphra发布超棒的新语音合成模型Zonos

 ·  · 

合理使用与窃取数据

 ·  · 

DeepSeek R1在混淆(幻觉)基准测试中优于o3 - mini(中)

 ·  · 

Zyphra发布Zonos - v0.1 beta版TTS模型

 ·  · 

新论文:让模型在输出标记前于潜在空间思考

 ·  · 

模拟IRC讨论并得出最终答案

 ·  · 

最佳本地Whisper桌面UI

 ·  · 

Hugging Face推出AI代理课程

 ·  · 

Audiblez 4.0发布:由电子书生成有声书

 ·  · 

阿斯塔特 - 一种复制GPT的有状态神经架构

 ·  · 

Glyphstral - 24B v1版本发布

 ·  · 

不明链接(无有效标题信息)

 ·  · 

谷歌Gemini Pro 2.0实验版02 - 05在LLM榜单居首但实际测试表现差

 ·  · 

RAG扩展至2000万文档的方法

 ·  · 

超轻量级本地聊天UI:aiaio

 ·  · 

两年后本地大模型的推测

 ·  · 

橙派AI Studio Pro迷你电脑,带宽达408GB/s

 ·  · 

单台机器(2×Xeon + 24GB GPU)上运行671B DeepSeek - R1/V3 - q4,预填充速度达286 tokens/s,解码速度达14 tokens/s

 ·  · 

试用编码助手Qwen2.5 - coder - tools/Sonnet 3.5于Cline和Github Copilot代理模式的体验

 ·  · 

量化对推理型大语言模型影响更大吗

 ·  · 

使用512GB/s Gen 5 NVMe RAID卡与4个驱动器运行DeepSeek - R1:671b以替代更多内存

 ·  · 

超高效瓦/令牌的FPGA LLM推理服务器

 ·  · 

09 日   16

Andrej Karpathy对大语言模型深度探究要点

 ·  · 

谷歌Deepmind CEO称Deepseek的AI模型被过度炒作

 ·  · 

我构建了可在笔记本电脑运行的深度研究本地助手NanoSage

 ·  · 

伟大模型的趋同性削弱人工智能监管

 ·  · 

本地深度研究:本地LLM研究助手

 ·  · 

细调相关知识全览

 ·  · 

以低成本配置为灵感的6U、p104 - 100设备搭建

 ·  · 

o1和r1是否为纯LLM模型?

 ·  · 

使用GRPO和Unsloth训练非英语推理模型

 ·  · 

英伟达是否正在成为人工智能发展的瓶颈?

 ·  · 

Mistral在设计上很吸引消费者但能力似乎落后

 ·  · 

LynxHub现支持全配置Open - WebUI

 ·  · 

开源图像生成模型哪家强?

 ·  · 

96GB显存与128GB DDR4下的R1(1.73bit)

 ·  · 

AI.com现重定向至DeepSeek

 ·  · 

DeepSeek - R1网站九成时间繁忙,有无付费稳定使用方法

 ·  · 

08 日   21

Mistral、ChatGPT和DeepSeek处理敏感话题的方式

 ·  · 

DeepSeek 20天内获得超1亿用户

 ·  · 

我的小设备在扩展

 ·  · 

中国显卡或为家庭实验室提供48GB显存

 ·  · 

急需升级

 ·  · 

构建lfind:使用大语言模型的自然语言文件查找器

 ·  · 

OpenAI o3 - mini对比r1和o1的性能分析

 ·  · 

低成本构建大语言模型优化的Linux服务器

 ·  · 

本地运行哪些模型?

 ·  · 

RTX 5090在GPU计算基准测试中未能超越RTX 4090

 ·  · 

AI模型如何在网络英语良莠不齐的情况下正确作答

 ·  · 

Glyphstral - 24b:符号演绎推理模型

 ·  · 

iOS上使用TinyLlama和Kokoro的播客

 ·  · 

哪些虚构角色将被率先创造

 ·  · 

OpenAI请求边缘化Ilya,因其向投资者索要SSI且涉及xAI

 ·  · 

为何许多软件工程师对用大语言模型编程不满?

 ·  · 

OpenAI隐藏o3 - mini中的实际思考标记

 ·  · 

Meta通过Anna"s Archive下载超81TB数据

 ·  · 

德国:11月已发布与R1相当的模型,无需担忧

 ·  · 

我的DeepSeek R1 671B在家使用计划:CPU+GPU混合,4xGen5 NVMe卸载

 ·  · 

双AMD Epyc系统中llama.cpp的令牌生成性能差的可能解决方案

 ·  · 

07 日   20

少见的四GPU设置展示

 ·  · 

伊利亚让OpenAI走向封闭

 ·  · 

2025年2月用于提高生产力的大语言模型组合

 ·  · 

大语言模型能否针对逆向工程汇编代码进行微调?

 ·  · 

Claude语音质量惊人

 ·  · 

特朗普在新闻发布会上称DeepSeek不构成国家安全威胁

 ·  · 

目睹o3 mini完整推理过程

 ·  · 

Redemption_Wind_24B:微调者的新模型

 ·  · 

Cerebras为Mistral Le Chat带来即时推理(Mistral Large 2每秒1100个令牌)

 ·  · 

Kokoro WebGPU:浏览器内100%本地运行的实时文本转语音

 ·  · 

Qwen2.5 0.5B在谷歌Colab T4上全模型GRPO训练脚本,30分钟内GSM8K评估提升25%

 ·  · 

免费的o3 - mini和Llama 3.3 70B,Duck.ai无需账号

 ·  · 

多GPU设置下应使用vLLM或ExLlamaV2替代llama.cpp

 ·  · 

Dolphin 3.0 R1 Mistral 24B:在HF Spaces应用上轻松推理测试

 ·  · 

拥有8x A100 80GB集群,如何运行Deepseek R1

 ·  · 

使用经典小猫提示与“Dolphin 3.0 R1 Mistral 24b”得到怪异回复

 ·  · 

若类Anthropic/OpenAI公司发明Transformer,其他实验室能否逆向工程

 ·  · 

OpenAI为用户更新思维链

 ·  · 

Dolphin3.0 - R1 - Mistral - 24B相关资源链接

 ·  · 

深度关注DeepSeek

 ·  · 

06 日   24

Mistral AI公司CEO访谈

 ·  · 

Mistral新推“闪答”功能

 ·  · 

50美元实现小数据强推理

 ·  · 

GitHub Copilot:智能体觉醒

 ·  · 

1.49B Llama模型在4060Ti 16GB上13小时的训练结果

 ·  · 

使用Unsloth以低显存训练推理模型

 ·  · 

DeepSeek Llama 3.3与Open - Webui Artifacts Overhaul Fork组合成为最佳本地替代方案

 ·  · 

DeepSeek大语言模型家族的纯C++ CPU推理:deepseek.cpp

 ·  · 

自制开源AI工具助力自身免疫疾病诊断

 ·  · 

Mistral AI发布移动应用

 ·  · 

不应误解聊天机器人竞技场基准测试

 ·  · 

菊台的Hibiki:同步语音到语音翻译模型,支持法语到英语

 ·  · 

RTX 4090下本地大语言模型最佳选择

 ·  · 

自动将epub转换为有声读物(kokoro)

 ·  · 

近期发布模型更新lineage - bench基准测试结果

 ·  · 

Hugging Face发布新Spaces搜索,40万+AI应用可直观访问

 ·  · 

LIMO:推理中的‘少即是多’

 ·  · 

研究表明:大幅增加密集型大语言模型输入词汇量可提升性能

 ·  · 

免费且开源的DeepSeek R1对码农来说比20美元的o3 - mini更好(有速率限制)

 ·  · 

谷歌现在没有最先进的前沿模型了吗

 ·  · 

Open WebUI今日发布三个新版本

 ·  · 

小参数模型(小于50亿参数)的应用

 ·  · 

Gemini Pro 2.0实验版表现糟糕

 ·  · 

用于大型语言模型推理的专用集成电路

 ·  · 

05 日   26

深析Deepseek R1论文中的语言混合问题

 ·  · 

2025年最令人期待的AI模型

 ·  · 

Gemma 3即将到来

 ·  · 

利用输出嵌入的HNSW索引加速基于CPU的LLM推理

 ·  · 

30分钟用Deepseek R1和Kiln AI训练自己的推理模型

 ·  · 

S1 - 32B:6美元的R1竞争对手?

 ·  · 

小于R1的优秀MoE模型

 ·  · 

Anthropic呼吁‘请勿使用AI’

 ·  · 

DeepSeek R1在泛化基准测试中并列第一

 ·  · 

宣布Sage:与大语言模型的开源语音聊天

 ·  · 

谷歌有所行动,可惜不是Gemma 3

 ·  · 

Gemini 2.0现已向所有人开放

 ·  · 

可视化工作流编辑器受关注

 ·  · 

捍卫开源创新,抵制限制行为

 ·  · 

Deepseek的GRPO方法奖励函数出错则劣于原模型

 ·  · 

AI的日常用途

 ·  · 

2B模型击败72B模型

 ·  · 

DeepSeek VL2 Small发布官方演示,OCR等功能强大

 ·  · 

创建全球AI法规追踪网站

 ·  · 

3090显卡从24GB升级到48GB

 ·  · 

Phi 4:14b是否真的好用?

 ·  · 

谷歌解除其AI用于武器和监控的禁令

 ·  · 

美国邮政停止中国和香港地区发货,LLM硬件构建受阻

 ·  · 

L3.3 - Damascus - R1:基于社区反馈更新的AI模型

 ·  · 

Open Euro LLM发布

 ·  · 

DeepSeek被澳大利亚政府设备禁用

 ·  · 

04 日   27

新的(邪恶)思维模型: Skynet - 3B

 ·  · 

欧盟禁止存在"不可接受风险"的AI系统

 ·  · 

编写程序让两个大语言模型对话

 ·  · 

感谢坚持开源成果的组织

 ·  · 

LLaMA 3.1微调用于多选互动小说

 ·  · 

OpenAI深度研究走向开源

 ·  · 

RX 7900 XT低成本组建AI服务器是否值得?

 ·  · 

Epyc Turin搭配256GB/5600mhz的CPU推理数据

 ·  · 

使用一万个GPU训练模型的工作原理

 ·  · 

你的反馈并非无人听取

 ·  · 

Mistral即将推出的推理模型展望

 ·  · 

Drummer"s Anubis Pro 105B v1:经过持续训练的升级版L3.3 70B

 ·  · 

Kiwi模型亮相lmsys arena

 ·  · 

中国的OmniHuman - 1

 ·  · 

求推荐适合8GB显存的优质图像模型

 ·  · 

O3 - mini - high的LiveBench编码分数疑云

 ·  · 

Mistral老板称科技CEO痴迷AI超越人类是一种宗教式迷恋

 ·  · 

计算机硬件将如何变革以适配本地大语言模型

 ·  · 

深擎当前如何访问

 ·  · 

DeepSeek - R1答案一般较短

 ·  · 

并非所有大语言模型都能解决此问题

 ·  · 

用户LLM记忆的最佳存储方式

 ·  · 

深探研究人员称仅需2 - 3周即可训练R1和R1 - Zero

 ·  · 

用Mistral Small 24B制作太阳系动画,探究小模型实现类似效果的条件

 ·  · 

Claude在编码方面有独特优势

 ·  · 

用原型MLX - GRPO训练器使Phi - 14b成为(初级)推理器

 ·  · 

本地LLM独一无二的用例发现

 ·  · 

03 日   27

美法案拟监禁下载Deepseek者

 ·  · 

斯坦福Co - Storm无人问津?可撰写深度报告

 ·  · 

本地AI模型VRAM需求估算工具

 ·  · 

超拟合小训练集模型可积极影响人类对模型输出的偏好

 ·  · 

Deeper Seeker:OpenAI深度研究功能的简易开源版本

 ·  · 

为教育目的从零训练100万参数的TinyStories模型

 ·  · 

无有效信息可生成标题

 ·  · 

OpenAI深度研究正努力撰写我的报告,预计1 - 2周完成

 ·  · 

10000美元的最佳私人配置

 ·  · 

训练DeepSeek R1进行股票交易

 ·  · 

本地语音合成模型之最爱

 ·  · 

范式转变?

 ·  · 

构建用于运行英伟达GPU进行AI任务的Linux发行版

 ·  · 

无审查与删减模型之间的区别

 ·  · 

Mistral Small 3:超越自身规模的性能——重新定义期待(感觉像70B模型!)

 ·  · 

Windows系统下莫忘硬件优化

 ·  · 

Cursor现支持Deepseek v3和r1模型

 ·  · 

DeepSeek - R1成功解数学题并自我纠错

 ·  · 

国外公司发布Mistral、Qwen和DeepSeek模型

 ·  · 

使Mistral Small 3 24B像R1 - 蒸馏模型那样思考

 ·  · 

Phi 4被严重低估

 ·  · 

Gemini 2.0下浏览器使用体验超棒

 ·  · 

构建实时唇读无声语音识别本地工具

 ·  · 

无有效信息标题

 ·  · 

Kokoro TTS 1.0发布

 ·  · 

开源的OpenAI深度搜索替代方案?

 ·  · 

美国国会提议:下载中国模型判20年或罚百万

 ·  · 

02 日   23

Chrome扩展可在浏览器本地运行DeepSeek等大模型

 ·  · 

美国人也能对模型进行提炼

 ·  · 

部分1月下旬计划推出的大语言模型被取消或延迟

 ·  · 

最佳聊天界面有哪些

 ·  · 

低量化下更高参数是否更优?

 ·  · 

DeepSeek - R1未通过任何安全测试,攻击成功率达100%

 ·  · 

本地Llama医疗助手Medtator

 ·  · 

Mistral - small - 24b - instruct - 2501被赞为最佳模型

 ·  · 

Windows系统安装大语言模型入门指南

 ·  · 

Mistral Small 3 24b通过“苹果”测试

 ·  · 

GPT 3.5开放权重是否值得关注

 ·  · 

国家安全顾问如何评估科技公司

 ·  · 

Mistral 3 Small:值得微调与部署的实用模型

 ·  · 

我的当前模型阵容

 ·  · 

英或将禁止本地运行大型语言模型

 ·  · 

Deepseek R1助力克服成瘾问题

 ·  · 

R1在评估中有14%的幻觉率,表现不佳

 ·  · 

4o、o1或DeepSeek是否有未审查版本

 ·  · 

MacBook 8G运行Deepseek R1 Distill可使用GPT4ALL

 ·  · 

Open WebUI代码器全面改进版在GitHub上线供测试

 ·  · 

DeepSeek-R1错误信息失控

 ·  · 

对11种流行本地大语言模型在指令繁重的游戏/应用中的测试

 ·  · 

DeepSeek - R1在Quad P40与双Xeon E5 - 2699v5上的运行

 ·  · 

01 日   26

Ubuntu系统新安装下3090与3060显卡启用

 ·  · 

利用o3构建开源研究系统,实现自知与不知的推理

 ·  · 

密苏里州参议员乔希·霍利提议封禁中国AI模型

 ·  · 

Gemma2 - 27b响应速度比Gemma2 - 9b快,对语音应用很重要

 ·  · 

山姆·奥特曼称OpenAI将采用两种新的AI方法

 ·  · 

DeepSeek R1 671B MoE大模型于特定硬件运行

 ·  · 

SmolVLM完全开源

 ·  · 

AI的实际用途有哪些?

 ·  · 

长思考标记可能并非最佳方式

 ·  · 

哪些模型能输出高质量脏话?

 ·  · 

伯克利研究人员30美元复现DeepSeek R1

 ·  · 

被称"不安全"的示例引发思考

 ·  · 

llama.cpp现支持工具调用(兼容OpenAI)

 ·  · 

在2000美元的EPYC服务器上完全本地运行Deepseek R1 671b

 ·  · 

o3 - mini成为当前最优编码模型

 ·  · 

对phi - 4的看法

 ·  · 

取消ChatGPT Plus订阅

 ·  · 

Mistral Small 3虽好,但有小问题

 ·  · 

如何让DeepSeek深度思考?最长能持续多久?

 ·  · 

OpenAI在开源问题上站在"历史错误的一边":山姆·奥特曼

 ·  · 

Virtuoso - Small - v2:基于Deepseek - v3蒸馏的14B语言模型

 ·  · 

山姆·奥特曼认可R1

 ·  · 

过去一年发展远超预期

 ·  · 

成功用Deepseek R1蒸馏70B模型单轮提示完成"python flappy bird游戏"测试

 ·  · 

我的PC在输入"ollama run deepseek - r1:671b"10秒后的状态

 ·  · 

深度探索Deepseek bitnet

 ·  · 

01 月   682

31 日   26

Mistral Small模型令人失望

 ·  · 

OpenAI可能再次开放

 ·  · 

OpenAI将走向开源?

 ·  · 

意大利当局封禁DeepSeek AI

 ·  · 

相对经济的671B R1 CPU推理工作站配置,2 - 3T/s

 ·  · 

DeepSeek R1在创意短篇小说写作基准测试中排名第一

 ·  · 

Deepseek R1由英伟达托管

 ·  · 

O3 mini现推出两种版本

 ·  · 

在DeepSeek - R1 - Llama - 70b上添加实时网络搜索并制成API

 ·  · 

DeepSeek - R1 (671B) 1.58bit在Open WebUI上的运行教程

 ·  · 

张量并行与管道并行所需带宽探究

 ·  · 

DeepSeek 8B对草莓中的3个R感到惊讶但仍能应对

 ·  · 

多文档(1万+)检索增强生成(RAG)的最佳当前设置

 ·  · 

GPU价格因人们急于自托管DeepSeek而飙升

 ·  · 

Mistral Small 3 24B GGUF量化评估结果

 ·  · 

能否运行大语言模型(LLM)查询网站构想

 ·  · 

深度探索研究员的合著者:能否发现Meta

 ·  · 

R1多语言微调成果,含35种语言,开源

 ·  · 

 ·  · 

Chris Manning认可Deepseek的600万美元训练成本

 ·  · 

最适合成人内容的大语言模型

 ·  · 

是时候引领了

 ·  · 

小型AI模型发展迅速,耐心等待性价比更高

 ·  · 

英伟达是"纸老虎",那AMD呢?

 ·  · 

DeepSeek AI数据库泄露:超百万日志行与密钥外泄

 ·  · 

12/13B模型中最适合成人角色扮演的是哪个

 ·  · 

30 日   30

QWEN推出聊天机器人网站

 ·  · 

Mistral - Small - 24B - 2501与Mistral - Small - 2409对比

 ·  · 

Mistral Small 3知晓真相

 ·  · 

美国实验室保密架构算法阻碍AI发展,学习LLM需看中国公司论文

 ·  · 

DeepSeek R1再蒸馏取得成果

 ·  · 

米斯特拉尔归来

 ·  · 

安德里森对Anthropic首席执行官呼吁对中国实施出口管制的看法

 ·  · 

Mistral Small 3一分钟完成Unsloth的Flappy Bird编码测试(DeepSeek R1使用NVME硬盘需3小时)

 ·  · 

Mistral Small 3 24b Q6初始测试结果

 ·  · 

深擎创始人访谈:我们不会闭源,建立强大技术生态更重要

 ·  · 

小智能体为我节省超100小时工作量

 ·  · 

在本地游戏主机上无GPU实现DeepSeek R1 671B每秒超2个标记的推理速度

 ·  · 

低成本70b 8位推理设备搭建

 ·  · 

当前最佳小型编码模型有哪些?

 ·  · 

特朗普政府可能彻底扼杀英伟达在中国的业务

 ·  · 

DeepSeek R1在NYT Connections上的得分介于o1和o1 - mini之间

 ·  · 

Mistral Small 3 24b的上下文窗口效率极高

 ·  · 

深度探索(Deepseek)部署于华为云

 ·  · 

无合成数据?

 ·  · 

有50万人能够本地运行685B参数模型吗?

 ·  · 

Mistral - Small - 24B - Base - 2501在Hugging Face发布

 ·  · 

Mistral Small 3相关内容

 ·  · 

Mac M2 Ultra运行Deepseek R1 IQ1_S比2个H100更快

 ·  · 

使用7995WX搭配1TB系统内存运行大语言模型

 ·  · 

即将尝试YuE音乐生成器GGUF版本

 ·  · 

R1模型实际用途探究

 ·  · 

Nvidia将RTX 40和50系列GPU的FP8训练性能减半

 ·  · 

此想法有多疯狂?

 ·  · 

完成构建

 ·  · 

 ·  · 

29 日   35

看到AI的思维链后为其感到难过

 ·  · 

AMD称7900 XTX在DeepSeek R1蒸馏模型中匹配或超越RTX 4090

 ·  · 

V3的32B蒸馏版,即将推出R1

 ·  · 

马克·扎克伯格谈Llama 4训练进展

 ·  · 

R1现可在Azure AI无服务器上使用

 ·  · 

Lambda等老牌云服务提供商混淆R1与精简模型

 ·  · 

中国模型在数学方面是否表现远超其他模型?

 ·  · 

前谷歌、苹果工程师推出开源Oumi AI平台助力构建下一个DeepSeek

 ·  · 

Anthropic CEO称DeepSeek以低成本做出接近美国旧模型性能的模型

 ·  · 

提升DeepSeek R1推理轨迹

 ·  · 

DeepSeek R1在合作、谈判和欺骗多人基准测试中获第二名

 ·  · 

深度探索Deepseek R1 IQ2XXS(200GB)从SSD运行可行

 ·  · 

本世纪最大的讽刺:对冲基金出免费透明模型,非营利公司出付费封闭模型

 ·  · 

HuggingFace发布Open - R1

 ·  · 

开源8B评估模型在11项基准测试中胜过GPT - 4o mini等

 ·  · 

伯克利AI研究团队称30美元重现DeepSeek核心技术

 ·  · 

BEN2:新型开源顶尖背景去除模型

 ·  · 

Transformer Lab:本地模型的OpenAI平台开源替代方案

 ·  · 

AMD Ryzen AI Max+ 395、NVIDIA DIGITS和RTX 5090本地大语言模型预期性能对比

 ·  · 

无有效信息可生成标题

 ·  · 

为何人们更喜欢Ollama而非LM Studio?

 ·  · 

Qwen - 7B店主 - GitHub上的演示

 ·  · 

本地模型参数R1值相当重要!

 ·  · 

注意:你的7B/14B/32B/70B“R1”并非DeepSeek

 ·  · 

为何云端运行R1 671b模型售卖访问权盈利者少?

 ·  · 

DeepSeek - R1成功模拟生命游戏模式似为突破

 ·  · 

4万美元预算搭建DeepSeek R1主机的硬件选项

 ·  · 

微软调查与DeepSeek有关联的组织是否不当获取OpenAI数据

 ·  · 

DeepSeek R1在4xH100上的运行

 ·  · 

深析科技CEO谈4D象棋

 ·  · 

我所在的大型咨询公司(MBB)禁用Deepseek

 ·  · 

Hugging Face欲逆向工程DeepSeek的R1推理模型

 ·  · 

深析(DeepSeek)遭受DDoS攻击的证据已被披露

 ·  · 

DeepSeek API请求均超时

 ·  · 

深度探索(DeepSeek)被过度渲染恐慌

 ·  · 

28 日   34

解释监督CoTs中的‘错位’含义

 ·  · 

深擎是否即将在美国被封禁?

 ·  · 

RWKV - 7 “Goose” 1.5B版本发布

 ·  · 

深度探索Deepseek 2.5(及Unsloth)

 ·  · 

OpenRouter提供Deepseek R1免费版本及“chutes”提供商

 ·  · 

创建MiraConverse开源项目,实现语音与AI模型聊天

 ·  · 

DeepSeek R1 671B在2个M2 Ultra上运行比读取速度还快

 ·  · 

大家都在使用什么硬件?

 ·  · 

使用Moondream在零售店实时追踪目光

 ·  · 

DeepSeek借助类汇编PTX编程突破AI优化瓶颈,绕开英伟达CUDA

 ·  · 

Block发布名为Goose的新开源AI智能体,功能超编码

 ·  · 

量子公司发布R1是否为高瞻远瞩之举

 ·  · 

6000美元电脑本地运行Deepseek R1 670B Q8,每秒6 - 8个词元

 ·  · 

DeepSeek备受关注但被过度炒作

 ·  · 

中国发布新模型

 ·  · 

中国发布Qwen2.5 - Max模型

 ·  · 

本地运行Deepseek无审查

 ·  · 

Unsloth制作动态R1量化 - 仅需80GB内存即可运行

 ·  · 

360将为DeepSeek免费提供安全服务

 ·  · 

深擎创始人梁文峰2025年1月20日会见李强总理

 ·  · 

深度求索(Deepseek)遭遇困境

 ·  · 

DeepSeek基于华为910C国产芯片进行推理

 ·  · 

寻求志同道合者共建项目与交流

 ·  · 

亚洲研究人员新成果:YuE全曲生成开源模型

 ·  · 

DeepSeek R1 Overthinker:可控制R1模型思考时长

 ·  · 

JanusPro 1B可在2GB显存笔记本上生成图像

 ·  · 

特朗普将对台湾制造芯片加征25% - 100%关税影响台积电

 ·  · 

借助DeepSeek学习编码

 ·  · 

若DeepSeek获20万Blackwell GPU,AI模型会提升多少

 ·  · 

日版Qwen 7B蒸馏模型微调,模型开源

 ·  · 

模型基准能否良好指示模型质量?o3是否为重大进步?

 ·  · 

本地Suno音乐生成器已推出

 ·  · 

特朗普称DeepSeek很不错

 ·  · 

特朗普称深擎AI应给美国工业敲响警钟

 ·  · 

27 日   42

Janus Pro 1B基于Transformers.js在WebGPU上实现100%本地浏览器运行

 ·  · 

取消OpenAI Plus订阅,转用本地DeepSeek - R1 14b

 ·  · 

R1与其提炼物间稳健性对比的好方法:除法精度

 ·  · 

Deepseek审查比西方审查更可容忍

 ·  · 

如何确定Deepseek R1的训练成本约为600万美元

 ·  · 

OpenAI对Deepseek的反应

 ·  · 

百万标记上下文长度

 ·  · 

Meta召集工程师团队探究DeepSeek AI低价优势

 ·  · 

中国近期动作频频,美国模型何时以LLama 4和Gemma 3反击?

 ·  · 

O1、R1与Sonnet 3.5编码能力对比

 ·  · 

Qwen发布新的SOTA多模态模型,权重开源,可与Claude Sonnet和GPT - 4o竞争

 ·  · 

Janus - Pro - 7B首次测试

 ·  · 

Qwen2.5 - VL发布

 ·  · 

DeepSeek V3为何被视为开源?

 ·  · 

DeepSeek发布新多模态理解与视觉生成模型Janus - Pro 7B

 ·  · 

Llama.cpp代码99%由Deepseek - R1编写的PR

 ·  · 

OpenAI员工对Deepseek的反应

 ·  · 

英伟达面临4650亿美元损失,DeepSeek冲击AI市场

 ·  · 

无有效内容可生成标题

 ·  · 

美国大公司自行托管DeepSeek的阻碍因素

 ·  · 

DeepSeek或因影响股市遭美国DDoS攻击

 ·  · 

DeepSeek发布deepseek - ai/Janus - Pro - 7B(统一多模态模型)

 ·  · 

Deepseek现仅允许中国手机号注册

 ·  · 

1.58bit DeepSeek R1 - 131GB Dynamic GGUF

 ·  · 

文三.0混合专家模型?新推理模型?

 ·  · 

深擎API今晨大部分时间处于故障状态

 ·  · 

DeepSeek Chat在新闻和炒作后开始变慢

 ·  · 

新模型与GPT2模型大小相同,令人惊叹

 ·  · 

英伟达因Deepseek预市下跌12%

 ·  · 

上周末优化DeepSeek V2/V3 llama.cpp实现 - PR #11446

 ·  · 

DeepSeek R1在创意写作排名中居首

 ·  · 

短暂的乐趣

 ·  · 

Deepseek成本为何如此之低?

 ·  · 

我让DeepSeek评价美国AI公司

 ·  · 

开源大语言模型的"能否运行"工具创建

 ·  · 

中国人工智能产业几乎追平美国

 ·  · 

本地推理是未来趋势

 ·  · 

Deepseek表现出色

 ·  · 

怀念OpenAI开放时期

 ·  · 

与DeepSeek V3的正面互动

 ·  · 

 ·  · 

Deepseek R1在Groq上能否加快思考速度?

 ·  · 

26 日   25

急需为开源大语言模型创建"能否运行"工具

 ·  · 

Deepseek登顶美国应用商店

 ·  · 

今年将有重大变革

 ·  · 

深度探索(deepseek)是一个副项目(第二部分)

 ·  · 

百川智能推出针对医疗场景优化的Baichuan-14B-M1

 ·  · 

网易有道推出Confucius - o1 - 14B推理模型

 ·  · 

阿里巴巴发布Qwen2.5系列新模型

 ·  · 

AI模型在土耳其医学专业考试中超越冠军

 ·  · 

Qwen 2.5 VL即将到来

 ·  · 

Qwen2.5 - 1M在HuggingFace发布:支持百万标记上下文长度

 ·  · 

探索UI - TARS

 ·  · 

《金融时报》:深言科技震惊硅谷

 ·  · 

DeepSeek R1与Llama3相比优势何在?二者均为开源?

 ·  · 

华为910C性能将是910B的两倍

 ·  · 

Qwen 2.5 VL即将发布?

 ·  · 

模型微调最佳框架:大家都在用什么?

 ·  · 

中国联通发布Unichat - 32B - c1(超越GPT - 4和Deepseek V3)

 ·  · 

DeepSeekR1:完全从零打造3D游戏

 ·  · 

阿里巴巴MNN团队开源多模态安卓无网络应用

 ·  · 

RTX4080笔记本(12GB VRAM)最佳本地模型

 ·  · 

DeepSeek - R1与DeepSeek - R1 - Zero对比:惊人结果

 ·  · 

英伟达Project Digits显存速度及基础显存容量

 ·  · 

愿为能有Suno一半好的本地音频模型舍弃肾脏

 ·  · 

Llama 3.3 70b与DeepSeek R1 70b哪个性能更佳

 ·  · 

Msty连接香港的中国服务器

 ·  · 

25 日   25

当下最佳本地编码AI是哪个?

 ·  · 

OpenAI是否会推出Whisper 4模型

 ·  · 

最佳成人故事讲述AI模型

 ·  · 

OpenAI新动态

 ·  · 

构建AI智能体?可替代LangChain等框架的方案

 ·  · 

Mistral Nemo 12b相关的Magnum v5初步成果

 ·  · 

OpenAI和Meta等在数据中心投入巨资的回本之道

 ·  · 

字节跳动宣布豆包1.5专业版

 ·  · 

Deepseek在Python代码生成方面远胜ChatGPT(指两者免费版本)

 ·  · 

中国AI初创公司DeepSeek打造可与OpenAI媲美的模型

 ·  · 

英伟达将逐步停止对麦克斯韦和帕斯卡架构的CUDA支持

 ·  · 

R1全开源复现正在进行中

 ·  · 

推理模型能解决而非推理模型不能解决的问题

 ·  · 

谷歌许久未更新,r1完整版本处于何种水平?

 ·  · 

是否应继续容忍政治机器人?

 ·  · 

DeepSeek R1与o1 Pro对比

 ·  · 

惊叹于32B融合模型的表现

 ·  · 

DeepSeek R1浏览器版最多50条消息,API版无限制

 ·  · 

Deepseek - R1:使用体验最糟糕的模型

 ·  · 

翻转函数调用模式,优化智能体场景响应

 ·  · 

OpenWebUI项目成果改进的又一前瞻(画布/克劳德成果)

 ·  · 

Deepseek v3将使MoE开源模型更为常见

 ·  · 

Snowflake宣称突破可将AI推理时间削减超50%

 ·  · 

Sky-T1-32B-Flash:削减推理成本50%且不牺牲精度

 ·  · 

Elara:一款用于匿名化LLM提示的开源工具

 ·  · 

24 日   22

修复DeepSeek R1置信度问题的方法

 ·  · 

若无法获取5000系列GPU的应对计划

 ·  · 

Deepkseek R1的身份错乱

 ·  · 

深度探索(DeepSeek)随机说中文?

 ·  · 

MiniMax - 01未被Livebench基准测试的原因

 ·  · 

R1+Sonnet以低成本达成新的SOTA成绩

 ·  · 

腾讯发布新模型:混元7B - 指令版

 ·  · 

深度探索:本地运行deepseek - r1全模型的相关情况

 ·  · 

Llama 4将成为最先进技术

 ·  · 

DeepSeek免费使用的原因

 ·  · 

DGX B200系统闲置数周,可运行什么?

 ·  · 

Depseek承诺开源AGI

 ·  · 

DeepSeek - R1现身LMSYS竞技榜

 ·  · 

对24GB显存可容纳的几乎所有模型进行基准测试

 ·  · 

深度探索Deepseek r1:与OpenAI o1对比究竟如何

 ·  · 

对某种事物理念的喜爱与展望

 ·  · 

中国AI产业几乎追平美国

 ·  · 

深探R1 - Zero是否有API可用?

 ·  · 

即将推出:100%本地视频理解引擎

 ·  · 

DeepSeek - R1 - Distill - Qwen - 32B在LiveBench上的基准测试结果

 ·  · 

Ollama以小蒸馏模型冒充"R1"误导用户

 ·  · 

中国反向工程前OpenAI领先

 ·  · 

23 日   29

DeepSeek R1(推理器)可联网,o1尚不能

 ·  · 

SmolVLM 256M:全球最小多模态模型,于WebGPU上在浏览器本地100%运行

 ·  · 

Deepseek - r1 - Qwen 1.5B的过度思考很可爱

 ·  · 

DeepSeek R1 Distill Qwen 2.5 32B去抑制版(无审查)发布

 ·  · 

免费背后:使用ChatGPT等需用数据买单

 ·  · 

OpenAI推出Operator:计算机使用代理

 ·  · 

Deepmind借鉴Deepseek:开源的力量

 ·  · 

深析DeepSeek已尽力

 ·  · 

Meta因Deepseek而恐慌

 ·  · 

Deepseek R1在新热门基准测试中表现最佳

 ·  · 

FuseO1 - DeepSeekR1 - QwQ - SkyT1 - 32B - Preview的R1蒸馏成果

 ·  · 

Scale AI CEO称中国DeepSeek开源模型迅速追赶美国

 ·  · 

RTX 5090 LLM结果,与4090和6000 ada对比

 ·  · 

开源Deepseek在"人类终极考验"中击败OpenAI

 ·  · 

ChatGPT故障时尝试本地LLaMA

 ·  · 

Salt:基于大语言模型的语音生成新方法(含开源代码)

 ·  · 

Hugging Face发布SmolVLM 256M和500M参数模型

 ·  · 

FuseO1-DeepSeekR1-QwQ-SkyT1-32B-Preview模型融合效果惊人

 ·  · 

谷歌许久未发布开源模型

 ·  · 

DeepSeek为R1本地使用在模型卡中添加建议

 ·  · 

DeepSeek为副业项目

 ·  · 

着迷于观察模型的思考输出

 ·  · 

英伟达开源长文本处理库,内存减少35%

 ·  · 

首个高性能无标记化开源字节级模型发布

 ·  · 

创意写作中的AI模型应用

 ·  · 

字节跳动推出用于计算机的Apache 2.0许可的2B、7B和72B推理代理

 ·  · 

2024年未接触本地大语言模型,2025年快速回顾

 ·  · 

DeepSeek-R1-Distill结果大多无法复现

 ·  · 

预训练小模型:162M模型预训练的一些经验总结

 ·  · 

22 日   26

Open WebUI发布两个新版本,增加推理功能

 ·  · 

FuseAI/FuseO1-DeepSeekR1-Qwen2.5-Coder-32B - 预览版GGUF

 ·  · 

Deepseek R1小于14B时表现不佳

 ·  · 

Deepseek R1开源版本与官方API版本存在差异

 ·  · 

DeepSeek R1的Imatrix量化已完成

 ·  · 

NVIDIA RTX Blackwell GPU:96GB GDDR7内存与512位总线

 ·  · 

DeepSeek - R1对台湾问题的回应令人惊讶

 ·  · 

NVIDIA RTX Blackwell GPU曝光:96GB GDDR7内存与512位总线

 ·  · 

埃隆·马斯克抨击特朗普宣布的5000亿美元AI项目,称其支持者没钱

 ·  · 

机器学习/人工智能领域Bluesky平台值得关注的人

 ·  · 

R1神奇解决编程问题,或成新宠

 ·  · 

DeepSeek R1难以使用

 ·  · 

新的通义千问可能也是混合专家模型

 ·  · 

MacBook M4 Max运行本地流行LLM的每秒令牌吞吐量测试

 ·  · 

借助GPT-O1 Pro发现自身免疫疾病

 ·  · 

无实质内容无法生成有效标题

 ·  · 

R1 - Zero纯强化学习创造出难以解读的思维,是AGI的黑暗面吗

 ·  · 

字节跳动豆包1.5pro - 豆包团队

 ·  · 

质疑OpenAI的5000亿美元投资

 ·  · 

DeepSeek R1 32B性能远优于7B Distill,即使在Q4量化时

 ·  · 

地下室中的Deepseek寻找含字母e的5个奇数

 ·  · 

可从R1提取推理并传递给任意模型

 ·  · 

DeepSeek与OpenAI的区别

 ·  · 

5000亿美元星门AI项目与其他科技项目对比

 ·  · 

现在是学习R1模型的好时机

 ·  · 

无有效信息标题

 ·  · 

21 日   24

Deepseek - R1存在脆弱性

 ·  · 

特朗普宣布美国5000亿美元人工智能基础设施投资

 ·  · 

Gemini Thinking实验01 - 21发布!

 ·  · 

无有效信息可生成标题

 ·  · 

R1在图论问题解答中的惊艳表现

 ·  · 

专有AI不再价值数十亿

 ·  · 

DeepSeek - R1 - Distill - Qwen - 1.5B本地浏览器WebGPU上100%运行,数学基准测试性能超GPT - 4o和Claude - 3.5 - Sonnet

 ·  · 

kluster.ai现托管DeepSeek R1

 ·  · 

西班牙政府发布官方模型

 ·  · 

OpenAI为保王座,开发人员或需24/7工作,因DeepSeek进展迅猛

 ·  · 

在Huggingface上以3 - 10倍速度部署任何大型语言模型

 ·  · 

从Llama2到DeepSeek R1:一年内的巨大进步

 ·  · 

DeepSeek将使其他"研究"许可的开源模型相形见绌

 ·  · 

让其遵循逻辑

 ·  · 

可同时使用R1和搜索网页(含有无R1的对比)

 ·  · 

DeepSeek R1(Qwen 32B蒸馏版)可在HuggingChat免费使用

 ·  · 

完全无法使用

 ·  · 

特朗普撤销拜登应对AI风险的行政命令

 ·  · 

深探公司的大胆使命(CEO梁文峰专访)

 ·  · 

DeepSeek R1模型的GGUF文件已上架Ollama库

 ·  · 

优化R1模型在开放网页界面的体验

 ·  · 

R1与o1有效成本计算及结果

 ·  · 

Deepseek R1在本地LLM的Ollama硬件基准测试

 ·  · 

新TTS模型,似Llama伪装

 ·  · 

20 日   26

QwQ 32b性能优于R1 32b - 附测试内容

 ·  · 

2024代码降临节中的模型对比

 ·  · 

Deepseek R1使用体验:优于Claude Sonnet 3.5

 ·  · 

Deepseek R1在本地仍判定安全与合适性,企业安全管控何时休

 ·  · 

首次感觉大语言模型写作优秀,而非只是在同类中较好

 ·  · 

DeepSeek新R1在实时评测中排第二,推理加持下编码优于Sonnet 3.5

 ·  · 

Deepseek R1在Livebench上总体优于o1 - preview

 ·  · 

Phi - 4在LMSYS竞技场上取得1210 ELO分数

 ·  · 

开源模型小到可在单张3090显卡运行,多数基准测试表现远超数月前超专有闭源顶尖模型

 ·  · 

DeepSeek - R1在逻辑推理基准测试中碾压其他模型

 ·  · 

让Qwen Deepseek 32b R1模型正常运行:系统提示?

 ·  · 

o1思考12分35秒,r1思考5分9秒且均两次答对

 ·  · 

Deepseek - R1模型的GGUF量化版本发布等相关资源

 ·  · 

OpenAI面临压力

 ·  · 

DeepSeek-R1-Distill-Qwen-32B成为本地使用的最佳开源模型

 ·  · 

深擎R1及其蒸馏基准测试的彩色标注

 ·  · 

Deepseek R1输出每百万token仅2.19美元,对比o1的60美元

 ·  · 

开源模型,成本仅为1/50的o1性能

 ·  · 

DeepSeek-R1-Distill系列模型

 ·  · 

DeepSeek R1正式发布

 ·  · 

深探测试回顾

 ·  · 

DeepSeek发布R1的6个蒸馏版本及R1完整版

 ·  · 

DeepSeek - R1发布,6850亿参数

 ·  · 

最接近Claude 3.5 Sonnet的模型

 ·  · 

深探R1/ R1零号

 ·  · 

利用AI完成的最复杂编码

 ·  · 

19 日   17

Harbor App 0.2.24版正式支持Windows

 ·  · 

Epyc 7532与双MI50相关展示

 ·  · 

AGI含义是否有共识?

 ·  · 

应否屏蔽奇点和未来学相关内容

 ·  · 

OpenAI暗中资助独立数学基准测试后创o3记录

 ·  · 

Huggingface的巨大存储和带宽问题

 ·  · 

5000美元预算下全预训练大型BERT或ModernBERT模型(约3亿参数)的本地GPU合理配置

 ·  · 

新思维模型:Art(自动回归思考者)发布

 ·  · 

OpenAI可获取FrontierMath数据集,创建者不知情

 ·  · 

OpenRouter为何被信任?

 ·  · 

Qwen模型概述

 ·  · 

我开始认为AI基准测试毫无用处

 ·  · 

构建AI智能体应更注重通信方式

 ·  · 

推理模型或为本地推理/训练带来巨大突破

 ·  · 

48/24GB VRAM下的顶尖深度学习模型

 ·  · 

用快速Rust程序将代码库序列化输入任何大语言模型

 ·  · 

直观解析大语言模型基准测试的实际测量内容

 ·  · 

18 日   14

消费者级硬件应可用于模型训练

 ·  · 

能否用RAG弥补弱语言模型的不足?

 ·  · 

用更强大的大语言模型追求类人表达可能是错路

 ·  · 

拥有4倍H100服务器免费访问权限后的规划

 ·  · 

Kokoro TTS与GLaDOS打造低延迟、逼真的AI语音助手

 ·  · 

4080 16GB与旧3070 8GB对比

 ·  · 

Llama 3.2 1B Instruct小语言模型的最佳应用场景

 ·  · 

融合多模型特性的LLama 3.3 70b

 ·  · 

能否用自托管的ollama或hugging face完全取代付费模型

 ·  · 

除原生Python外是否有构建代理的尝试

 ·  · 

LLM为何不能边对话边重新训练以实现无限记忆

 ·  · 

英特尔应推出24GB版Arc B580

 ·  · 

KoboldCpp 1.82支持多种功能更新

 ·  · 

以类似ChatGPT速度运行Llama 3.x 8B类模型的最便宜方式

 ·  · 

17 日   16

新推理模型为何通不过‘苹果’测试基准?

 ·  · 

AI研究是否仍有必要

 ·  · 

DeepSeek - R1(预览版)在LiveCodeBench上的基准测试

 ·  · 

开源基于WebLLM+LLAMA的智能浏览器内文本编辑器

 ·  · 

实时说话人分割

 ·  · 

主流应用中有哪些真正有用的本地AI功能?

 ·  · 

Moondream 2B与OLLama进行实时视频分析的设置指南

 ·  · 

LLM频繁出现固定措辞现象

 ·  · 

NVIDIA RTX 5090:人工智能与多GPU的限量供应与限制

 ·  · 

Attend概念验证

 ·  · 

笔记本电脑大语言模型性能 - 注意电源设置!

 ·  · 

金融PDF表格提取

 ·  · 

韩国AI芯片DEEPX NPU:价格低于50美元,是否优于GPU?

 ·  · 

LLM数据集不可或缺的工具

 ·  · 

OpenWebUI即将实现画布功能(更好的构件)

 ·  · 

特斯拉P40显卡起火爆炸,寻求帮助

 ·  · 

16 日   17

ElevenLabs的技术奥秘

 ·  · 

获取大语言模型即将发布消息的途径

 ·  · 

DeepSeek V3是否被过度炒作?

 ·  · 

 ·  · 

创建使用DeepSeek进行内联编辑的VSCode扩展

 ·  · 

推出Wayfarer:极具挑战性的角色扮演模型

 ·  · 

Kokoro.js:用于在浏览器本地运行Kokoro TTS(82M)的新JavaScript库

 ·  · 

二手3090显卡价格涨至850 - 900美元

 ·  · 

GPU为何不能像PC内存一样有可插拔内存

 ·  · 

人工智能使用条款限制的虚幻之处

 ·  · 

大语言模型能否比DeepL、谷歌翻译、微软翻译等提供更好的自然语言翻译?

 ·  · 

不使用LangChain构建LLM代理应用的方法

 ·  · 

MiniMax - AI发布全新SOTA MOE开源模型,上下文达4M

 ·  · 

智谱AI被列入美国制裁黑名单

 ·  · 

新函数调用基准测试表明Python方法优于JSON

 ·  · 

InternLM3 - 8B - Instruct发布,Apache 2.0许可,使用体验如何?

 ·  · 

使用Kokoro - 82M、Llama 3.2和Whisper Small在MacBook本地构建实时语音聊天机器人

 ·  · 

15 日   20

谷歌发布新架构

 ·  · 

UMbreLLa使RTX 4070Ti运行Llama3.3 - 70B达9.6Tokens/s

 ·  · 

Deepseek过度思考

 ·  · 

谷歌研究推出新AI模型Titans

 ·  · 

Dell T5820搭配两块Dell RTX 3090不到2千美元 - 购于eBay

 ·  · 

是否有人攻克能实时监控的“主动型”大语言模型

 ·  · 

不再购买

 ·  · 

Hugging Face推出免费认证的LLM代理课程

 ·  · 

英特尔B580首次推理速度测试

 ·  · 

每月支付20 - 200美元使用ChatGPT是否有很多用途?

 ·  · 

成功购入第二块3090显卡

 ·  · 

OuteTTS 0.3发布10亿及5亿参数新模型

 ·  · 

到处都是流程图

 ·  · 

MiniMax MoE技术深度剖析:405B参数模型

 ·  · 

公司计划添加外部GPU内存

 ·  · 

新模型相关链接

 ·  · 

用一堆旧硬件运行Deepseek V3

 ·  · 

OpenRouter用户:您觉得缺少哪些功能?

 ·  · 

MiniMax - 01:借助闪电注意力扩展基础模型

 ·  · 

2025年将成为小型全能模型之年?

 ·  · 

14 日   20

用Kokoro - 82M从电子书生成有声读物Audiblez

 ·  · 

公司首个小型AI项目

 ·  · 

意外打造谷歌AI Studio的开源替代品

 ·  · 

2025年本地AI的未来

 ·  · 

自适应大型语言模型Transformer²

 ·  · 

高效的语音合成(TTS)模型推荐

 ·  · 

MiniMax-Text-01:456B参数的强大新语言模型

 ·  · 

Deepseek v3本地运行体验

 ·  · 

代理设置远超普通大型语言模型

 ·  · 

DDR6内存与合适GPU可高速运行700亿参数模型

 ·  · 

开放社交模拟平台OASIS,可使用多达百万个代理

 ·  · 

因大语言模型创立开源组织

 ·  · 

2026年留存比例预测

 ·  · 

基于Whisper的安卓语音输入法

 ·  · 

免费开源AI模型的发布动机

 ·  · 

MiniCPM - o 2.6:8B大小、GPT - 4o级别的全能模型可在设备上运行

 ·  · 

无有效信息,无法生成标题

 ·  · 

Qwen发布72B和7B数学进程奖励模型

 ·  · 

新的重排序模型:多语言训练且性能更优

 ·  · 

405B与Ollama和vLLM与6x AMD Instinct Mi60 AI服务器对比

 ·  · 

13 日   18

使用Open - WebUI测试vLLM - Llama 3 70B Tulu - 4x AMD Instinct Mi60设备 - 速度达26 tok/s

 ·  · 

RTX Titan Ada 48GB原型显卡曝光

 ·  · 

泰坦:测试时的记忆学习

 ·  · 

UGI排行榜重做!新的政治、编码和智能基准

 ·  · 

16GB版树莓派5现以120美元发售

 ·  · 

仅用100行构建一个大语言模型框架

 ·  · 

生成式语言模型如何处理拼写错误,而类BERT模型却过于敏感?

 ·  · 

研究人员开源Sky - T1,训练成本低于450美元的推理AI模型

 ·  · 

Codestral 25.01:快速代码生成

 ·  · 

英伟达对拜登政府AI扩散规则的官方声明

 ·  · 

向量数据库为何多采用NoSQL格式而非SQL

 ·  · 

所有大型语言模型的发展方向是否如此?

 ·  · 

Hugging Face推出免费智能体课程

 ·  · 

Kokoro TTS参数少却效果好的原因

 ·  · 

美国主机公司运行DeepSeek的低成本方案

 ·  · 

PS5用于推理

 ·  · 

Speaches v0.6.0发布,支持Kokoro和PiperTTS API端点

 ·  · 

询问Llama 5个不含字母E的奇数时它会出错

 ·  · 

12 日   17

Llama4可能会有哪些特性?

 ·  · 

禁止模型使用自身标记预测选下一词,QwQ 32b有时异常

 ·  · 

适合陪伴孤独者闲聊的最佳本地模型

 ·  · 

Kokoro登顶语音合成排行榜

 ·  · 

当前最佳低配置大语言模型有哪些

 ·  · 

Volo:基于维基百科进行RAG的本地简易方式

 ·  · 

马克·扎克伯格认为2025年Meta将有中级工程师AI可写代码并取代人力工程师

 ·  · 

寻求本地AI助手提升生产力

 ·  · 

VLC将添加离线实时AI字幕

 ·  · 

《终结者》视觉覆盖中的"分析"可能是图像嵌入

 ·  · 

DeepSeek V3不断带来惊喜

 ·  · 

6GB显存可用于哪些AI相关操作

 ·  · 

计算机视觉与Ollama用于停车系统分析与报告生成

 ·  · 

ollama短期内不会有推测解码,有替代方案吗?

 ·  · 

AMD Instinct Mi60 AI服务器与Llama 405B性能对比令人印象深刻

 ·  · 

Qwen发布Qwen Chat(在线版)

 ·  · 

我们现在是一家人工智能公司了!

 ·  · 

11 日   17

Moondream的凝视检测效果超棒

 ·  · 

OpenAI亏损,而Qwen计划语音模式,想象其制出o1级模型

 ·  · 

教程:在任何视频上运行Moondream 2b新的注视检测

 ·  · 

深度伪造技术发展之快超乎想象

 ·  · 

深言背后研究者成谜

 ·  · 

 ·  · 

新微调Negative_LLAMA_70B

 ·  · 

48GB与96GB VRAM用于微调的对比

 ·  · 

GMK宣布将在2025年上半年推出基于AMD Ryzen AI 9 Max+ 395处理器的全球首款迷你PC

 ·  · 

LLMs是否受限于英语和助手范式

 ·  · 

Nvidia 50x0系列显卡并不比40x0系列更优

 ·  · 

AI员工:当下与未来的思考

 ·  · 

本地GLaDOS运行于真实大型语言模型装备

 ·  · 

新星天空发布开源推理模型Sky - T1 - 32B - Preview

 ·  · 

硬件采购何处寻

 ·  · 

拜登将进一步限制英伟达AI芯片出口

 ·  · 

我的PowerMac G3睡眠型AI工作站:80GB总内存(32GB显存+48GB内存)

 ·  · 

10 日   15

8200万参数的语音合成适用于边缘AI,谁用Kokoro构建语音助手?

 ·  · 

o3 - mini即将到来

 ·  · 

新的开源模型转向SAE,含首个Llama 3.3 70b的SAE

 ·  · 

Phi-4微调:现支持超128K上下文长度及漏洞修复详情

 ·  · 

0.5B QwQ模型可在iPhone运行

 ·  · 

freeact:基于代码动作的代理轻量级库

 ·  · 

拜登将进一步限制英伟达AI芯片出口

 ·  · 

为何无支持llama.cpp之外后端的类似应用

 ·  · 

本地能与ElevenLabs质量和稳定性相匹配的TTS模型

 ·  · 

超差手写体的光学字符识别(OCR)工具

 ·  · 

WebGPU加速推理:本地浏览器100%运行Transformer.js大语言模型

 ·  · 

MIT博士教你从头构建大型语言模型

 ·  · 

在笔记本电脑上运行Phi 4并让Claude Sonnet进行自我比较

 ·  · 

RTX 5090能效略低于4090

 ·  · 

英伟达3000美元AI超级计算机或推动本地AI开发

 ·  · 

09 日   18

微调最爱模型之选

 ·  · 

eBay上售价4700美元的RTX 4090 48GB是否合法

 ·  · 

2025年信息检索的最佳嵌入模型

 ·  · 

莫恩德瑞姆2b新凝视检测脚本分享

 ·  · 

新发布Moondream 2B视觉语言模型

 ·  · 

图灵完备性与提示工程

 ·  · 

发布可随处安装的大语言模型LLM Pools端到端部署

 ·  · 

QwQ是否为思维链/推理的最佳本地模型?

 ·  · 

4090可运行的最佳写作与编码大语言模型

 ·  · 

前OpenAI员工与现员工就o1相关看法

 ·  · 

AI安全博客公司与国防技术公司合作游说监管开源AI

 ·  · 

rStar - Math使小语言模型数学推理能力可比肩OpenAI

 ·  · 

新的生成式模型TransPixar可保留透明度

 ·  · 

RTX 3060 12GB与RTX 4060 Ti 16GB用于机器学习与偶尔游戏的抉择

 ·  · 

微软新研究:小语言模型可通过自我进化深度思考掌握数学推理

 ·  · 

Phi 4仅14B却在多项任务上优于70B的Llama 3.1

 ·  · 

Phi-4推出一段时间后的看法

 ·  · 

Phi-4修复版本发布,含多种量化版本

 ·  · 

08 日   19

ROG Flow Z13 2025将搭载Ryzen AI Max+ 395与128GB LPDDR5X

 ·  · 

我在Groq上使用模型的体验总结

 ·  · 

寻找擅长创意写作的模型

 ·  · 

NVIDIA Project DIGITS或有273GB/s内存带宽

 ·  · 

Phi系列模型:测试表现佳但实际应用失败?

 ·  · 

Quad P40构建及Qwen - 2.5 - Coder - 32B和Llama 3.1 - Nemotron - 70B的基准测试

 ·  · 

微软Phi-4亮相:MIT授权

 ·  · 

微软发布Phi - 4

 ·  · 

打造AI职位精选网站,日增百个新职位

 ·  · 

世界首个开源AI会议助手问世

 ·  · 

自制推理模型MiniThinky 1B初尝试

 ·  · 

内存不足时尝试在Linux上运行DeepSeek V3 Quant的解决办法

 ·  · 

阿里云通义千问团队技术负责人推荐阅读Anthropic博客

 ·  · 

NVIDIA发布Cosmos世界基础模型

 ·  · 

使用DeepSeek 3测试Aider与Cline:代码库>20k LOC

 ·  · 

Kokoro - 82M:一款Apache TTS模型

 ·  · 

惠普发布基于AMD的128GB统一内存(96GB显存)生成式AI机器,领先英伟达Digits

 ·  · 

使用Cosmos - 1.0 - 7B - Text2World根据文本提示创建视频

 ·  · 

Llama 4计算量估算与时间线

 ·  · 

07 日   27

发布Notate——支持本地大语言模型的开源AI研究助手

 ·  · 

8个GPU的6U机箱配置技巧

 ·  · 

你的大语言模型工具组合是什么?订阅?工具?自托管?

 ·  · 

DeepSeek V3的GGUF 2 - 位量化令人惊喜地有效!还有BF16等量化方式

 ·  · 

01.AI被传裁撤团队,官方已辟谣

 ·  · 

NVIDIA的Digits在AI推理中胜过苹果M4芯片

 ·  · 

Digits与5090,该如何选择?

 ·  · 

Phi-4在多轮RAG问题的消息重述方面表现极佳

 ·  · 

LLMs的沉思推理响应式提示法

 ·  · 

惠普Z2 Mini G1a:搭载AMD Strix Halo的迷你工作站

 ·  · 

推荐用于自托管DeepSeek v3的云提供商

 ·  · 

使用continue.dev的体验

 ·  · 

Deepseek v3在Together AI上线且定价更高

 ·  · 

通过现有Grace CPU系统理解Project DIGITS桌面版(3000美元128GB)

 ·  · 

NVIDIA 5070(128GB VRAM)售价超3000美元?

 ·  · 

NVIDIA对4090的FP8与5090的FP4比较似有误导

 ·  · 

GB10 DIGITS将革新本地Llama

 ·  · 

英伟达即将推出新的开源NemoTrOn模型

 ·  · 

Nvidia发布售价3000美元的个人AI超级计算机Digits

 ·  · 

NVIDIA或成Mac Mini竞争对手

 ·  · 

未明确信息,无法生成合适标题

 ·  · 

 ·  · 

3090、4090和5090显卡对比简表

 ·  · 

RTX 5000系列官方规格

 ·  · 

RTX 5090 Blackwell官方价格

 ·  · 

无有效标题内容

 ·  · 

M4 MAX Pro、M2与NVIDIA RTX 3090性能对比 - 出乎意料

 ·  · 

06 日   18

RTX4090对比:40GB显存相关

 ·  · 

基于遗传算法创建命令行界面以优化提示

 ·  · 

本地模型存在的又一必要性

 ·  · 

Llama 3b:持续在160B高质量标记上训练可使数学能力提高2 - 3倍

 ·  · 

Hugging Face对Llama 3.2 3B持续预训练在数学任务上提升2 - 3倍

 ·  · 

Qwen2.5 14B在树莓派上的运行

 ·  · 

AMD在CES 2025宣布新款锐龙CPU用于笔记本,运行70B(q4)比4090桌面独立GPU快两倍

 ·  · 

使用Llama 3.1 70B - Q4时每秒处理标记速度比RTX 4090 24GB快2.2倍

 ·  · 

AMD Ryzen AI Max+ 395速度比4090快2.2倍

 ·  · 

在Linux下使用96GB显存+256GB内存运行DeepSeek - V3

 ·  · 

LLM创意故事写作基准

 ·  · 

RTX 5090传闻内存带宽达1.8TB/s

 ·  · 

AI智能体作为有限状态机?

 ·  · 

DeepSeek v3在2个M2 Ultra上以17 tps运行(使用MLX.distributed)

 ·  · 

Qwen 2.5为何支持128k上下文长度但输出仅支持8k

 ·  · 

多GPU系统用于本地大语言模型(LLM)?

 ·  · 

Gemma2:27b成果佳,但无法在其他模型上扩展复制

 ·  · 

DeepSeek V3表现出色

 ·  · 

05 日   21

本地大语言模型运行工具的新选择

 ·  · 

24Gb内存可适配的大型语言模型

 ·  · 

Dolphin 3.0发布(整合Llama 3.1、3.2与Qwen 2.5)

 ·  · 

创建关于理解英剧《乐坛毒舌嗡嗡鸡》笑话的幽默分析基准

 ·  · 

UwU 7B Instruct模型相关

 ·  · 

大语言模型领域为何没有便捷的用户界面

 ·  · 

单张3090本地运行浏览器的使用

 ·  · 

Meta AI推出EWE增强长文本事实性

 ·  · 

深擎V3在llama.cpp中的令牌生成性能与提示长度的关系

 ·  · 

距离能与邮件、日历、待办事项交互的AI多久出现

 ·  · 

小思者3B参数推理模型

 ·  · 

我的AI/网络附属存储/媒体等多功能服务器

 ·  · 

构建优于LangChain的工具

 ·  · 

构建廉价ARMv9单板计算机集群以运行Deepseek v3

 ·  · 

拥有600万ElevenLabs点数,最佳使用方式是什么?

 ·  · 

AI检测工具的欺骗方法

 ·  · 

介绍kokoro - onnx语音合成系统

 ·  · 

Deepseek - v3热度惊人,671B模型下载量即将超过QwQ - 32B - preview

 ·  · 

基于DeepSeek v3将GitHub仓库转换为即时维基的AI工具

 ·  · 

大型服务器运行大语言模型相关

 ·  · 

LLM发展的最大瓶颈是什么?

 ·  · 

04 日   11

西班牙5080售价1699.95欧元

 ·  · 

DeepSeek - V3支持被合并到llama.cpp

 ·  · 

浏览器使用

 ·  · 

是否在工作中使用本地大语言模型

 ·  · 

用于测试大语言模型的潜在谋杀谜题数据集

 ·  · 

RAPTOR在RAG中的现状

 ·  · 

有无关于专家混合模型对性能影响的论文

 ·  · 

ScreenSpot - Pro:用于专业高分辨率计算机使用的GUI基础

 ·  · 

ChatGPT表现变差:幻觉及盲目认同用户

 ·  · 

Grok 2或将很快开源

 ·  · 

CAG或将改变现状

 ·  · 

03 日   17

2025年对Qwen意义非凡

 ·  · 

生成式Shell(gsh):可与本地大语言模型交互

 ·  · 

2024年GGUF崛起之年

 ·  · 

Ollama模型上下文增加时模型大小的增长

 ·  · 

双GPU运行的更佳时机

 ·  · 

O1系列模型大小相同,O1价格高于GPT - 4O的原因及O1 Pro相关情况

 ·  · 

将有更多先进开源模型出现

 ·  · 

DeepSeek - V3 GGUF相关资源

 ·  · 

大语言模型可作生存知识库

 ·  · 

训练超越GPT - 4o的7B模型

 ·  · 

Cortex支持Small - Thinker - 3B,一个基于Qwen2.5 - 3b - Instruct微调的小推理模型

 ·  · 

Moshi语音模型为何未成为热门话题

 ·  · 

Fireworks托管Deepseek V3:无数据收集,每月0.9美元,每秒25t

 ·  · 

OLMo相关的研究(推测,仅标题无更多信息)

 ·  · 

2025年将成为开源AI的变革之年

 ·  · 

eBay惊现无显存和核心的4090显卡在售

 ·  · 

1.58位模型“革命”的现状

 ·  · 

02 日   20

对Llama 4的期待

 ·  · 

AI基准测试数据迅速过时,新进展超预期

 ·  · 

使用AI智能体创作整本书:AutoGen与Mistral - Nemo

 ·  · 

深度寻求V3、QVQ - 72B预览版、猎鹰3 10B、羊驼3.3 70B、神经电子70B在更新的MMLU - Pro CS基准测试中的大语言模型比较/测试

 ·  · 

寻求自然中性且无审查的最佳模型

 ·  · 

告别RAG服务器:使用WebAssembly、IndexedDB和Transformers.js在浏览器直接创建向量数据库

 ·  · 

本地LLM首次获得引用

 ·  · 

本地版GLaDOS - 离线人格核心

 ·  · 

Deepseek v3每秒600个标记是否可能

 ·  · 

3万美元预算,购买何种GPU集群用于LLM训练与推理?自制还是购买整机更好?

 ·  · 

本地视觉、语音合成与语音识别的前沿技术

 ·  · 

试用Granite 3.1 3b,速度快但效果差

 ·  · 

大模型量化多是否优于小模型量化少

 ·  · 

DeepSeek v3与Claude 3.5 Sonnet 1022对比:DeepSeek编写的代码更简洁(我的经验)

 ·  · 

中国在内存市场取得进展

 ·  · 

基于神经科学的大语言模型应用记忆层

 ·  · 

M4 24GB下llama3.2等模型的Ollama性能

 ·  · 

我的简易低成本AI设备,下一步该怎么做?

 ·  · 

毛泽东相关事件真实性证明

 ·  · 

无有效标题内容

 ·  · 

01 日   16

Vast.ai使用体验不佳

 ·  · 

Llama 4今年将有多次发布 包含语音与推理功能

 ·  · 

微软新论文列出多数闭源模型大小

 ·  · 

构建小型(函数调用)大能力的LLM并集成于开源网关

 ·  · 

自制Termite:可从简单文本提示生成终端UI的CLI

 ·  · 

移动端最佳本地LLM应用推荐

 ·  · 

深度探索Deepseek v3:是否优于GPT - 4o和3.5 Sonnet?

 ·  · 

字节跳动研究推出1.58位FLUX:99.5%Transformer参数量化为1.58位的新AI方法

 ·  · 

2025年谁将率先发布新模型?

 ·  · 

室内安全无人机与本地模型助力家居助手未来

 ·  · 

LLMs的离群泛化多跳推理能力探讨

 ·  · 

NVIDIA GeForce RTX 5080预计1月21日发布

 ·  · 

中美企业对中国模型的态度

 ·  · 

开源模型发展受阻,我们是否陷入困境?

 ·  · 

GAIA基准下顶尖智能体距有学位人类仅差27%

 ·  · 

深爱Deep Seek v3:卓越的AI模型

 ·  · 

2024 年  2599

12 月   514

31 日   15

深擎(DeepSeek)的有趣表现

 ·  · 

阿里云大语言模型降价幅度达85%,中国AI竞争升温

 ·  · 

深度探索Deepseek与qwen

 ·  · 

Unsloth 2025年展望

 ·  · 

DeepSeek V3在llama.cpp上运行,贺新年

 ·  · 

即将问世的有趣ARM硬件 - Radxa Orion O6

 ·  · 

新年夜之梦模糊不清,求帮助

 ·  · 

AWS部署40万Trainium2芯片集群助力Anthropic

 ·  · 

AI手机基准测试实验计划启动

 ·  · 

DeepSeek V3为何缺少第三方提供商

 ·  · 

2024年末的主要本地大语言模型

 ·  · 

具有"故事流思维链"的角色扮演AI

 ·  · 

小米招募深擎关键研究员领导AI实验室

 ·  · 

利用语言模型赌博:一位无知投资者试图用ModernBert击败股市

 ·  · 

Mac M3 48G下最佳编码大语言模型

 ·  · 

30 日   15

新的大语言模型发散性思维创造力基准

 ·  · 

开源模型Deepseek V3可比肩ChatGPT4

 ·  · 

Gary Marcus对AGI和ASI发展预测的改变

 ·  · 

Dolphin 3.0发布

 ·  · 

SmallThinker - 3B - Preview发布:类o1推理SLM

 ·  · 

真正开源的模型有哪些?

 ·  · 

深度探索v3:最佳开源模型!

 ·  · 

或有小型推理模型问世

 ·  · 

2024年Hugging Face上排名前25的开源模型

 ·  · 

2024年Hugging Face上点赞数排名前25的AI模型

 ·  · 

Deepseek V3在误导向注意力评估中表现糟糕

 ·  · 

山姆·奥特曼暗讽DeepSeek和Qwen

 ·  · 

低成本的本地大语言模型搭建

 ·  · 

2024年12月10日:Cerebras系统与美国能源部桑迪亚国家实验室宣称在单个CS - 3系统上完成1万亿参数模型的训练

 ·  · 

你最喜爱的聊天或角色扮演模型

 ·  · 

29 日   17

3060 12GB与4060 Ti 16GB的对比

 ·  · 

免费本地开源的YouTube摘要扩展

 ·  · 

深析Deepseek v3上下文窗口:优劣对比

 ·  · 

Deepseek V3二月将涨价

 ·  · 

Together开始托管Deepseek V3:隐私友好的使用方式

 ·  · 

1.58B无梯度内存训练新论文noise_step

 ·  · 

Deepseek v3在Web开发领域表现糟糕

 ·  · 

单GPU能否运行70B模型

 ·  · 

DeepSeek -R1 -Lite -Preview在多项基准测试中似乎胜过DeepSeek V3,为何V3更受追捧?

 ·  · 

距离拥有真正的语音控制电脑个人助手还有多远

 ·  · 

AMD和英特尔显卡是否适合运行AI模型?

 ·  · 

英特尔准备推出配备24GB内存的Arc(PRO)“Battlemage”GPU

 ·  · 

VRAM究竟有多重要?

 ·  · 

PDF转Markdown工具对比:我的初步体验结果

 ·  · 

图像与文本的循环转换

 ·  · 

SemiKong:首个开源半导体聚焦大语言模型(基于Llama 3.1构建)

 ·  · 

使用DeepSeek V3进行FIM效果很棒的方法

 ·  · 

28 日   15

创意型实验Command - R模型:基于1.85亿书籍标记训练微调

 ·  · 

Deepseek V3表现惊艳

 ·  · 

DeepSeek V3自托管:MOE剪枝设想

 ·  · 

2024年点赞最多的帖子回顾

 ·  · 

为运行DeepSeek V3在服务器配置1TB内存是否值得

 ·  · 

谷歌许久未为开源带来新成果

 ·  · 

RTX 5090与5080价格传闻

 ·  · 

LG与IBM在GPU资源匮乏的LLM竞技场中名列前茅

 ·  · 

Llama-3-8b-instruct的50个随机单词的前100个列表及其他有趣输出

 ·  · 

DeepSeek - v3成为ProLLM最佳开源模型

 ·  · 

神秘事物"WHALE"已降临

 ·  · 

DeepSeek生成价值1美元的代币无需5小时,通过批处理约1分钟即可

 ·  · 

DeepSeek 600b模型网站运行快且API便宜的疑惑

 ·  · 

当下创意写作是否有比Mistral Small 22b更好的模型

 ·  · 

DeepSeek生成1美元价值的代币需近5小时

 ·  · 

27 日   20

莫名而知:一种类似第六感的体验

 ·  · 

工作需换电脑:自建高配还是购买API?

 ·  · 

开源最强:前沿AI系统已超自我复制红线

 ·  · 

深seek新旧定价对比

 ·  · 

有无大家正在使用的无审查语言模型

 ·  · 

求llama.cpp使用的结构良好指南

 ·  · 

微软Phi - 4在哪?

 ·  · 

使用DeepSeek积分时需谨慎

 ·  · 

Qwen将发布高水平模型且期待有测试推理

 ·  · 

M4 Mac Mini AI集群运行DeepSeek - V3

 ·  · 

文心一言即将推出十四行诗水平的新模型?

 ·  · 

DeepSeek V3以合成数据用于编码和数学,采用新预测技术

 ·  · 

DeepSeek v3新增"Deep Think"选项,可展示思维链

 ·  · 

金融人士认为明年公司需管理人类和AI员工职业路径

 ·  · 

深擎发布其AI研究人员使用2048个H800训练深擎 - V3 671B混合专家模型(MoE)的独家视频

 ·  · 

Deepseek v3训练成本远低于同类模型

 ·  · 

为何较少人讨论Phi-4模型

 ·  · 

观Groq Llama3.3在大语言模型象棋竞技场击败xAI Grok

 ·  · 

Deepseek V3在livecodebench上(最高非推理模型)

 ·  · 

o1在编码方面表现平平

 ·  · 

26 日   17

DeepSeek在多数基准测试中以十分之一价格优于4o?

 ·  · 

Bartowski Q4_K_M量化版本输出语言转换问题

 ·  · 

Clipboard Conqueror 1.0新特性:支持ESC取消及提示操作注释

 ·  · 

Deepseek V3基准测试表明Qwen 2.5 72B才是王者

 ·  · 

构建完全开源的本地LLM会议记录与分析工具

 ·  · 

Sonnet3.5与v3对比

 ·  · 

无审查的政治、宗教等领域模型

 ·  · 

哇,这或许是最佳开源模型?

 ·  · 

DeepSeek-V3正式发布

 ·  · 

Deepseek V3正式发布(代码、论文、基准测试结果)

 ·  · 

Deepseek v3以低53倍价格超越Sonnet

 ·  · 

对Continue.Dev惊喜不已

 ·  · 

DeepSeek V3聊天版权重已上传至Huggingface

 ·  · 

论‘意识’

 ·  · 

Mistral近期悄然无声

 ·  · 

无有效信息标题

 ·  · 

构建保护AI隐私的操作系统

 ·  · 

25 日   22

Llama-3.2-3B-Instruct-abliterated需35GB显存

 ·  · 

115TB科学数据资源

 ·  · 

圣诞节孤独,能用AI做什么?

 ·  · 

Deepseek v3在aider上超越Claude sonnet

 ·  · 

OpenWebUI更新:支持真正的异步聊天

 ·  · 

DeepSeek V3在LiveBench上的基准测试结果

 ·  · 

DeepSeek V3模型在Huggingface上的模型卡

 ·  · 

DeepSeek V3模型现身Hugging Face平台

 ·  · 

QVQ 72B预览版无法生成代码

 ·  · 

智能体集群框架在空间推理测试中表现出色

 ·  · 

Test - Time Compute模型是否使M系列Mac不再适合运行大型语言模型

 ·  · 

使用Llama3.3驱动的AI代理查询pyppeteer仓库的两个近期问题

 ·  · 

扎克伯格看你使用通义千问而非LLaMA

 ·  · 

深搜DeepSeek V3?

 ·  · 

大语言模型能否解读此内容

 ·  · 

Deepseek V3已上线

 ·  · 

深擎v3 API已上线

 ·  · 

Qwen的QVQ 72B放弃Apache 2.0许可

 ·  · 

双3090性能接近理想但仍有不足

 ·  · 

AMD MI60与vLLM助力Llama3.3 70B达20 tokens/s

 ·  · 

高山LLaMA:GPU和磁盘空间不足者的福音

 ·  · 

AI模型与搜索结合效果佳,小模型亦如此

 ·  · 

24 日   19

当下最佳的人工智能模型

 ·  · 

QVQ - 72B智能强大不容小觑

 ·  · 

Gemini Flash 2.0实际体验及与其他开源模型对比

 ·  · 

LLMs发展迅猛,新时代将至

 ·  · 

 ·  · 

当前14b左右的最佳模型有哪些?

 ·  · 

开源大语言模型如何盈利

 ·  · 

OpenAI员工称o3与o1采用相同范式且进展迅速

 ·  · 

Qwen/QVQ - 72B - Preview模型在Hugging Face平台

 ·  · 

Qwen新发布

 ·  · 

挑战:让任意AI模型数对数字个数

 ·  · 

OpenAI员工称o3为大语言模型

 ·  · 

本地大语言模型使用案例与所用硬件

 ·  · 

Aider发布新的更难代码编辑基准

 ·  · 

应采用集群推理

 ·  · 

12GB 3080上的混元FP8可在10分钟内生成移动端质量的GIF

 ·  · 

LLM中一个token包含多少比特?

 ·  · 

2025年的AI发展预测

 ·  · 

Llama 3.2 3B性能出色

 ·  · 

23 日   16

小参数模型能否在各方面匹敌超大参数模型

 ·  · 

某论文令人困惑:是我疯了还是论文太离谱

 ·  · 

可直接在Ollama中运行来自Hugging Face Hub的私有GGUF

 ·  · 

构建廉价GPU租赁工具

 ·  · 

是否有人测试过phi4?其性能如何?

 ·  · 

苹果智能写作工具大更新,支持多平台本地LLM

 ·  · 

无相关AI内容的标题

 ·  · 

Layla支持手机运行大语言模型时通过Stable Diffusion生成图像

 ·  · 

AI模型产生幻觉是否因其不知己不知

 ·  · 

喜爱的无审查模型

 ·  · 

期待新的语言模型,而非局限于推理计算

 ·  · 

llama.cpp支持Llama-3_1-Nemotron-51B

 ·  · 

MI300X、H100、H200训练基准测试:CUDA仍具优势(上)

 ·  · 

RTX 5090(32GB显存)可运行哪些模型

 ·  · 

2025年预测

 ·  · 

Phi - 4通用版本发布情况

 ·  · 

22 日   15

Gemini大模型API免费,隐私是否无保障?

 ·  · 

Tokenization并非LLMs的瓶颈

 ·  · 

本地运行大语言模型的笔记本电脑及配置

 ·  · 

以Arc B580为核心的高性价比配置

 ·  · 

模型数量多得令人不知所措

 ·  · 

Drummer发布Anubis 70B v1:基于Llama 3.3 RP微调

 ·  · 

AI编码的关键不在于更"聪明",而是缺少基本工具

 ·  · 

2024年12月无审查大语言模型测试结果

 ·  · 

QwQ模型如何进行如4692*2的计算?

 ·  · 

谷歌DeepMind推理团队负责人Denny Zhou的三条X动态

 ·  · 

OpenAI员工推文透露o1和o3架构信息

 ·  · 

多轻型语言模型协作能否优于单个模型

 ·  · 

Deepseek被低估了

 ·  · 

英伟达Jetson Orin Nano Super试用

 ·  · 

根据LLM密集化规律,2025年10月或将出现8B参数的类GPT - 4o大模型

 ·  · 

21 日   12

部分大语言模型OCR能力为何强于专用OCR解决方案

 ·  · 

8B编码模型12小时推理时间的性能推测

 ·  · 

 ·  · 

phi4即将发布

 ·  · 

o3将为本地模型带来积极影响的原因

 ·  · 

Llama 3.3 70B指令版删减版(去审查)发布

 ·  · 

尝试与基础大型语言模型聊天取得进展

 ·  · 

对o1 - pro和o3的看法:暴力破解而非创新?

 ·  · 

o3与o1公平比较情况如何?

 ·  · 

实用小型大语言模型推荐

 ·  · 

Qwq完整版?开源o3?

 ·  · 

关于黑洞的思考与解答

 ·  · 

20 日   20

O3图表X轴为对数、Y轴为线性

 ·  · 

OpenAI发布o3开启测试时计算扩展新时代

 ·  · 

微软是否已发布Phi - 4?

 ·  · 

03击败99.8%的竞争程序员

 ·  · 

OpenAI发布O3和O3 mini

 ·  · 

O3在EpochAI基准测试中的性能

 ·  · 

GitHub疑似存在450万个虚假之星

 ·  · 

语音转语音模型比级联模型更笨 - 人工分析的新推理基准

 ·  · 

新升级至40GB显存,求700亿参数以上模型推荐

 ·  · 

消费级显卡如何被削弱?

 ·  · 

RWKV - 7 0.1B (L12 - D768)经ctx4k训练可解决NIAH 16k问题,外推至32k +,100% RNN(无注意力机制),支持100多种语言和代码

 ·  · 

构建高效代理

 ·  · 

Koboldcpp v1.80发布,支持Qwen2 - VL

 ·  · 

开源AI不仅必要而且需要发展的真正原因

 ·  · 

Qwen发布Qwen2.5技术报告

 ·  · 

创建包含自有数据的模型有多难

 ·  · 

QwQ 14B Math:面向GPU中层的QwQ

 ·  · 

Qwen2.5技术报告

 ·  · 

Qwen QVQ - 72B - Preview即将发布

 ·  · 

免费编码助手的使用选择

 ·  · 

19 日   20

MaxSun Arc B580 GPU带双SSD插槽亮相

 ·  · 

家庭服务器终极配置:14块RTX 3090组建

 ·  · 

红帽宣布达成收购Neural Magic(vLLM)的最终协议

 ·  · 

微软Copilot系统指令被提取:存在问题

 ·  · 

2025年将有多版本Llama 4发布

 ·  · 

自制wut——解释上一命令输出的CLI(适用于ollama)

 ·  · 

如今前端都用些什么?

 ·  · 

谷歌AI工作室免费推出Gemini 2.0闪思实验版

 ·  · 

终于有BERT的替代品了

 ·  · 

Acer RTX 5090/5080游戏电脑预售价曝光

 ·  · 

LibreChat体验如何?(代码执行、网页搜索等)

 ·  · 

AI时代第二阶段:AI实验室需要你的数据

 ·  · 

巴姆巴:高效推理的混合Mamba2模型

 ·  · 

Oobabooga新用户界面!

 ·  · 

Slim - Llama:低功耗处理30亿参数的LLM ASIC处理器

 ·  · 

新型物理人工智能令人惊叹(开源)

 ·  · 

创世纪项目:由物理模拟平台驱动的生成物理引擎,可生成4D动态世界

 ·  · 

开发出"公理提示工程"系统,一起测试优化

 ·  · 

Intel Arc B580上ComfyUI安装指南与示例基准测试

 ·  · 

有无无字符限制且可克隆声音的开源TTS

 ·  · 

18 日   21

Anthropic研究:大型语言模型中的对齐伪装

 ·  · 

Github Copilot免费版

 ·  · 

Qwen2 - VL 72b性能出色

 ·  · 

近期模型在聊天机器人竞技场的更新(Qwq、Qwen 2.5 Coder、Nova、Llama 3.3)

 ·  · 

使用QwQ作为对话思考者时意外模拟出尴尬的过度思考

 ·  · 

用视觉模型自嘲

 ·  · 

Moonshine Web:比Whisper更快更准的实时浏览器语音识别

 ·  · 

Granite 3.1语言模型:128k上下文长度与Apache 2.0协议

 ·  · 

本地运行70B模型的最具成本效益的堆栈是什么?

 ·  · 

AI创意竞技场:看大型语言模型在诗歌、ASCII艺术等方面一较高下

 ·  · 

停止滥用模型 - 反对上下文垃圾填充

 ·  · 

Jetson Orin Nano Super用于家庭设置是否合理

 ·  · 

Hugging Face研究人员用搜索使30亿参数Llama超越70亿参数版本

 ·  · 

MyDeviceAI:可在iPhone本地运行Llama 3.2的应用已上架AppStore

 ·  · 

Grok 2系统提示

 ·  · 

Click3:一款利用大语言模型自动化安卓使用的工具

 ·  · 

新B580与Ollama搭配使用的性能探究

 ·  · 

OpenAI长期让Sonnet 3.5成为市场最佳模型的原因推测

 ·  · 

Apollo是否消失?

 ·  · 

两院制众议院人工智能特别工作组报告发布

 ·  · 

发现一个超棒的可与本地模型协同工作的Perplexity AI克隆版

 ·  · 

17 日   18

畅想应存在却尚未存在之物及其原因

 ·  · 

笔记本电脑上Llama 3.3 70B的推理速度

 ·  · 

openlightllm:litellm的分支

 ·  · 

MLX - 4bit与GGUF - q4_K_M性能对比之MMLU Pro测试

 ·  · 

本地LLM的Godot游戏引擎插件NobodyWho

 ·  · 

即将迎来新硬件

 ·  · 

本地大语言模型实现网页聊天的Chrome扩展

 ·  · 

开源项目tangent:独特的AI聊天画布

 ·  · 

谷歌Veo 2生成视频惊艳,Veo与Imagen新版本发布

 ·  · 

Falcon 3家族发布

 ·  · 

Falcon 3发布

 ·  · 

RTX 3090调整功率限制时llama.cpp中的相对性能

 ·  · 

观看训练日志滚动令人平静,仿若凝视矩阵

 ·  · 

谁在最弱硬件上运行大型语言模型?

 ·  · 

Llama 3.3在代码辅助方面优于Mistral - Large - 2411

 ·  · 

索泰确认推出32GB GDDR7显存的GeForce RTX 5090,5080和5070系列也在列

 ·  · 

新LLM优化技术可削减高达75%内存成本

 ·  · 

DavidAU发布新模型及其相关版本

 ·  · 

16 日   18

为苹果硬件分叉HunyuanVideo以本地体验类SORA功能

 ·  · 

通过扩展测试时计算,让3B羊驼模型在高难度数学题上超越70B羊驼模型

 ·  · 

本地大语言模型最常用操作系统调查

 ·  · 

对后预训练世界的看法 - 伊利亚的演讲

 ·  · 

基于图的大语言模型工作流编辑器

 ·  · 

英特尔Arc B580或推24GB版本

 ·  · 

新兴开源人工智能栈

 ·  · 

Hugging Face推出合成数据生成器——自然语言构建数据集的用户界面

 ·  · 

使用3090使Apollo在本地运行

 ·  · 

寻找Llama 3.3最佳量化版本的途径

 ·  · 

基于大语言模型的游戏是否存在

 ·  · 

Meta发布Apollo大型多模态模型家族,7B版达SOTA且能理解1小时视频可本地运行

 ·  · 

Llama 3.2 1B表现惊人的好

 ·  · 

订阅付费还是构建本地系统更好

 ·  · 

微软Markitdown:Python文件与文档转Markdown工具

 ·  · 

Teuken - 7B:面向多语言的OpenGPT - X项目成员

 ·  · 

英特尔B580上大语言模型的性能数据

 ·  · 

分享思维链提示示例

 ·  · 

15 日   17

开源8B参数测试时间计算扩展(推理)模型

 ·  · 

Nvidia GeForce RTX 5070 Ti配备16GB GDDR7内存

 ·  · 

开源本地AI才是正途的又一证据

 ·  · 

搭乘12小时航班,128GB M4 Max求2024年12月最佳本地编码模型

 ·  · 

推测解码如何加速模型

 ·  · 

Llama.CPP与MLX在不同提示大小下对Llama-3.3-70B的速度测试#2

 ·  · 

Meta AI推出无标记器模型字节潜在变换器(BLT)

 ·  · 

Gemini实验1206编写的功能完备且美观的Web UI

 ·  · 

特定编程语言的大型语言模型

 ·  · 

AI编码员可在开发时查看前端

 ·  · 

复杂标签文本提取最佳OCR模型推荐

 ·  · 

Pixtral与Qwen2VL即将接入Ollama

 ·  · 

xAI Grok 2 1212相关资讯

 ·  · 

Qwen2.5 32B获Apache许可,开源潜力巨大

 ·  · 

最佳本地大语言模型配置是谁家的?

 ·  · 

TabbyAPI下的推测解码指标

 ·  · 

每秒处理多少个token的模型才算"可用"?

 ·  · 

14 日   13

Cohere新模型令人惊叹

 ·  · 

48GB内存下最佳编码模型

 ·  · 

Ilya在加拿大温哥华NIPS 2024的"序列到序列"演讲

 ·  · 

英特尔Arc B580新显卡

 ·  · 

LMArena新WebDev竞技区克劳德3.5十四行诗优势明显

 ·  · 

AMD GPU的Ollama替代方案

 ·  · 

llama.cpp现支持Qwen2VL

 ·  · 

前OpenAI研究员兼举报人26岁死亡

 ·  · 

Llama-3.3-70b在2xRTX-3090与M3 - Max 64GB上针对不同提示大小的速度测试

 ·  · 

Qwen开发者:即将推出新内容

 ·  · 

双GPU的eGPU机箱

 ·  · 

1500美元的高性能组装配置

 ·  · 

将代码转换为LLM提示且功能更多的工具

 ·  · 

13 日   19

Meta的字节潜在变换器(BLT)论文表现出色,或于2025年取代标记化模型

 ·  · 

OmniAudio - 2.6B:世界上用于边缘部署的最快音频语言模型

 ·  · 

哪个国家在NeurIPS发表的论文数量领先?

 ·  · 

各公司将推出的下一个模型会是什么

 ·  · 

Meta大型概念模型

 ·  · 

OpenAI称马斯克曾想营利性拥有并运营

 ·  · 

NVIDIA垄断:赛博朋克式的现实

 ·  · 

CohereForAI发布c4ai - command - r7b - 12 - 2024模型

 ·  · 

LG EXAONE-3.5模型性能体验

 ·  · 

百万美元悬赏首个在无污染SWE - bench中达90%的开源AI

 ·  · 

微软Phi-4 GGUF可下载

 ·  · 

可在Hugging Face查询GPU贫富状况

 ·  · 

DeepSeek - AI推出DeepSeek - VL2模型

 ·  · 

真假与否?或许是真的

 ·  · 

构建智能体应避免"大数据"式错误

 ·  · 

谷歌,Gemma3在哪里?

 ·  · 

无有效标题内容

 ·  · 

微软推出擅长复杂推理的小型语言模型Phi - 4

 ·  · 

NaturalLM -7B Instruct:自然发声的大语言模型

 ·  · 

12 日   17

当下购买双3090电脑,还是等CES后英伟达新品

 ·  · 

基于音乐库的检索增强生成(RAG)

 ·  · 

AMD 24.12.1驱动性能远低于24.8.1

 ·  · 

基于桌面的Gemini 2.0 Flash语音控制

 ·  · 

U - MATH新大学级数学基准:Gemini和Qwen表现突出

 ·  · 

OpenAI O1与Claude 3.5 Sonnet:20美元谁更超值

 ·  · 

Llama 3.3-70B迅速适应角色的原因

 ·  · 

QwQ推理模型在多场景中可能不适用

 ·  · 

结构化输出可能有损大型语言模型性能

 ·  · 

微软机器人鼓吹Phi3?

 ·  · 

谷歌欲推出符合社区期待的优秀模型

 ·  · 

Hermes 3 3B发布,使用体验很棒!

 ·  · 

AI模型评估愈发困难

 ·  · 

Qwen 2.5 72B与Llama 3.3 70B指令模型对比排名

 ·  · 

勿使用超出需求的大模型

 ·  · 

Phi 3.5 mini instruct:被忽视的实用模型

 ·  · 

自制开源模型编码聊天机器人竞技场并设实时排行榜

 ·  · 

11 日   15

谷歌AI工作室免费提供多项功能

 ·  · 

Gemini 2.0 Flash在SWE - Bench上击败Claude Sonnet 3.5

 ·  · 

Whisper.cpp是否仍是语音转文本(STT)的王者

 ·  · 

Gemini Flash 2.0实验

 ·  · 

谷歌开源Gemma 3已久

 ·  · 

谷歌发布Gemini 2.0 Flash,支持原生音频与图像生成

 ·  · 

Gemini 2.0 Flash实验版,有人尝试过吗?

 ·  · 

Recursal发布两款新线性模型:QRWKV6 - 32B与Finch - MoE - 37B - A11B

 ·  · 

8GB VRAM下难寻比gemma - 2 - 9b - it - SimPO更好的大语言模型

 ·  · 

LLM是否为输入一串标记且输出单个标记的函数?

 ·  · 

法报告称欧洲AI进展不足以与中美竞争

 ·  · 

PocketPal AI 1.6.0:消息编辑、重新生成与UI增强

 ·  · 

Qwen-2.5 Coder 7B可用于QwQ-32B的推测性解码

 ·  · 

GRMR 2B Instruct:轻量可靠的语法检查器

 ·  · 

回顾ChatGPT 3.5:今不如昔

 ·  · 

10 日   20

QwQ-32B -Preview令人印象深刻

 ·  · 

Llama 3.1 8B在9种不同RTX GPU上的基准测试(每百万输出令牌0.228美元)

 ·  · 

开源AI的重要性

 ·  · 

Llama 3.3 (70B)微调 - 现支持90K上下文长度且适配<41GB显存

 ·  · 

Huggingface存储限制更新(公开无限制,私有受限)

 ·  · 

Qwen/QwQ 32B正确回答时代关键问题,EXAONE 32B和Llama 3.3 70B失败

 ·  · 

18分钟内从零创建9个微调模型的工具演示[Kiln AI]

 ·  · 

模型收集与存档:12TB到72TB的设备搭建

 ·  · 

CMU和斯坦福发布强大的3B视觉语言模型

 ·  · 

Koboldcpp相较Oobabooga在用户体验上的巨大飞跃

 ·  · 

DeepSeek V2.5 - 1210:DeepSeek V2.5最终版本

 ·  · 

Mistral在欧盟人工智能法案后的情况

 ·  · 

Hugging Face发布Text Generation Inference TGI v3.0,长提示处理速度比vLLM快13倍

 ·  · 

大语言模型中被忽视的必要环节: 标记化

 ·  · 

DeepSeek - AI发布DeepSeek - V2.5 - 1210

 ·  · 

o1 LiveBench编码结果

 ·  · 

在Mac Mini M4 Pro上运行Llama 3.2 3B和Llama 3.3 70B模型

 ·  · 

InternVL2.5发布(1B至78B),能否取代GPT - 4o?

 ·  · 

 ·  · 

llama.cpp的RPC性能

 ·  · 

09 日   11

新手对大型语言模型的疑问:求解与停止方法

 ·  · 

点赞新的Llama 3.3 Euryale v2.3:48GB讲故事/角色扮演的最佳选择

 ·  · 

获新工具,不知如何测试

 ·  · 

EXAONE 3.5 32B使用体验分享

 ·  · 

中国因涉嫌违反反垄断法调查英伟达

 ·  · 

Github URL中"hub"可替换为"ingest"以提取友好提示文本

 ·  · 

LG称EXAONE-3.5为开源,但实际并非如此

 ·  · 

我的家庭实验室搭建:4块RTX 3090超强组合

 ·  · 

热门开源AI工具推荐

 ·  · 

LG发布三款新模型EXAONE - 3.5,规模分别为2.4B、7.8B和32B

 ·  · 

本地模型是否为首选

 ·  · 

08 日   16

两大语言模型对话并运行代码(Llama 3.1 8B Instruct + Qwen 2.5 Coder 32B Instruct)

 ·  · 

阿里Qwen团队负责人转投字节跳动,Qwen 3.0或无望

 ·  · 

Impish_Mind_8B:具有趣味个性的独特8B Llama 3.1模型

 ·  · 

花费200美元购买o1 - pro,后悔了

 ·  · 

警惕以安全为由封禁开源AI模型

 ·  · 

Llama 3.3在OpenRouter上比GPT 4o便宜近25倍,是否名副其实?

 ·  · 

AMD GPU用于大型语言模型(LLM)的可行性

 ·  · 

Google Gemini实验版1206编码能力强,胜过Claude Sonnet

 ·  · 

2024开源AI模型项目成果汇总及资源指南

 ·  · 

Claude给出唯一正确答案

 ·  · 

创建专用思考模型与响应模型的开放webui管道

 ·  · 

8GB显存下的最佳可运行模型

 ·  · 

24GB显存下当前最无审查模型

 ·  · 

30亿参数模型凭借高质量训练数据能否在特定任务上超越700亿参数模型

 ·  · 

用谜题破坏Llama3.3 70B(通过Ollama进行4位量化)

 ·  · 

用LangGraph构建AI文档系统效果更佳

 ·  · 

07 日   12

5万美元构建本地大语言模型:硬件推荐

 ·  · 

Llama 3.3与Qwen 2.5对比

 ·  · 

LLama 3.3 70b在网络安全基准测试中接近Qwen2.5但不及405b

 ·  · 

Llama成Hugging Face年度最受欢迎模型

 ·  · 

测试Llama网格混合器插件

 ·  · 

开放式视觉语言模型的辉煌一周

 ·  · 

4090运行Llama 3.3的快速反馈

 ·  · 

Llama 3.3升级显著,与Qwen 2.5编码性能对比

 ·  · 

Gemini 1206分数大幅跃升,Llama 3.3 70b近乎与GPT - 4o持平

 ·  · 

Gemini 1206代码自动补全功能超棒

 ·  · 

未来十年大语言模型将发展至何种程度

 ·  · 

Llama 3.3 70b难以应对的测试提示

 ·  · 

06 日   16

Llama 3.3 70B在指令遵循上排名第一

 ·  · 

超拟合现象:优化大语言模型以稳定生成开放式文本

 ·  · 

Llama 3.3在Hugging Face的相关资源发布

 ·  · 

LLaMA 3.3 70B性能如何?四大模型对比表

 ·  · 

Gemini -1206再次领跑大型语言模型领域

 ·  · 

Llama - 3.3 70b在几乎所有基准测试中胜过GPT - 4o、Claude - 3,5 - sonner和Llama - 3.1 405b

 ·  · 

Llama 3.3 70B发布

 ·  · 

Llama 3.3 70B可在HuggingChat免费使用

 ·  · 

Ollama库中已存在3.3版本

 ·  · 

Meta发布Llama3.3 70B

 ·  · 

Llama - 3.3 - 70B - Instruct模型在Hugging Face平台

 ·  · 

我对O1无感,难道只有我一人?

 ·  · 

为何我们需要开源的o1

 ·  · 

免费的Hugging Face本地大语言模型偏好对齐课程

 ·  · 

Adobe发布DynaSaur代码:可自我编码的智能体

 ·  · 

以6块GTX 1080 GPU配置系统,性能出色

 ·  · 

05 日   14

对Qwen2.5 Coder 32b是否仍满意

 ·  · 

Pleias发布首个完全基于公开数据训练的模型,可与Llama 3B和Qwen 3B竞争

 ·  · 

Mistral Large的推测性解码?

 ·  · 

世界最小视觉语言模型moondream 0.5B

 ·  · 

为何难以找到适配消费级GPU的大语言模型规模

 ·  · 

O1系统卡的渗出尝试

 ·  · 

谷歌发布基于Gemma 2的PaliGemma 2视觉语言模型

 ·  · 

使用推测解码优化Llama.cpp以实现每秒最大令牌数

 ·  · 

分布式计算在AI/ML任务中未被充分利用的原因

 ·  · 

武士(SAMURAI)与Meta的SAM 2:视觉追踪新时代?

 ·  · 

OpenAI与帕尔默·拉奇合作美国军事防御系统

 ·  · 

段落(或特定句子)末尾引用的RAG如何实现?

 ·  · 

谷歌NotebookLM三位团队成员离职创立新公司

 ·  · 

技术面试应允许(并评判)使用大语言模型

 ·  · 

04 日   14

25个最先进大语言模型的MMLU - Pro CS基准测试对比

 ·  · 

FishSpeech v1.5:多语言零样本即时语音克隆,仅5亿参数且低延迟排名TTS - Arena第二

 ·  · 

4位量化可能破坏模型 - 动态量化10%FP16 90%4位

 ·  · 

notebookLM深度访谈播客:未审查且声音多样

 ·  · 

新参与者入局

 ·  · 

Virtuoso - Small:Arcee.ai新推出的14B大语言模型超越SuperNova - Medius

 ·  · 

前实习生破坏字节跳动AI训练面临800万诉讼却获NeurIPS 2024最佳论文

 ·  · 

Llama - 3.1 - 8B作为评估器的早期训练结果

 ·  · 

12b - 22b规模下最佳NSFW角色扮演模型

 ·  · 

Hugging Face CEO对2025年人工智能的预测

 ·  · 

修改llama.cpp以支持Llama-3_1-Nemotron-51B

 ·  · 

本地使用智能体的情况

 ·  · 

许久未见新的Phi模型,尤其是bitnet模型

 ·  · 

Ollama合并K/V缓存量化支持,上下文内存减半

 ·  · 

03 日   16

QwQ 32b在Simple bench上的测试

 ·  · 

英特尔战戟(Battlemage)GPU发布

 ·  · 

Qwen QwQ在辅助编码基准测试中表现平平

 ·  · 

Llama.cpp漏洞修复!推测解码速度提升30%且上下文长度翻倍

 ·  · 

亚马逊推出其大型语言模型家族Nova

 ·  · 

超小模型有何用途?

 ·  · 

英伟达实验室的SANA:高分辨率图像生成

 ·  · 

耐力100B v1鼓手模型:精简版米斯特拉尔大型2407 123B且经RP微调

 ·  · 

混元视频:大型视频生成模型训练的系统框架

 ·  · 

SmolChat:在安卓设备本地运行GGUF SLMs/LLMs

 ·  · 

Bitnet是否为假?

 ·  · 

Hugging Face推出本地微调大语言模型免费开源课程

 ·  · 

LM Studio终可在NPU(高通骁龙Copilot+ PC)上运行

 ·  · 

与70B模型还是70个1B模型战斗

 ·  · 

VLLM支持AMD Radeon GPU运行gguf

 ·  · 

Llama 70b多步工具实现

 ·  · 

02 日   20

AI Linux爱好者使用RTX GPU时可能存在过热无提示情况

 ·  · 

当前最喜爱的模型

 ·  · 

微调器/量化器的终结,要回归到种子下载吗?

 ·  · 

ONNX为何在大语言模型领域未能成功

 ·  · 

Huggingface免费账户存储模型新限额为500Gb

 ·  · 

Qwq回答冗长且无重点

 ·  · 

Nous DisTrO更新,宣布新15b模型及DeMo论文

 ·  · 

尝试制作可在云端免费使用的无审查版Llama 405b模型

 ·  · 

Hugging Face为超25万公共数据集添加Text to SQL功能,由Qwen 2.5 Coder 32B提供支持

 ·  · 

开源AI与国家安全:监管呼声渐高

 ·  · 

企业实际生产中部署大语言模型的实用数据库

 ·  · 

Mistral许久未发布新内容

 ·  · 

惠普售卖英伟达A6000

 ·  · 

AMD GPU与Llama cpp组合时性能显著降低,求原因

 ·  · 

我构建此工具来比较大语言模型

 ·  · 

开源才是正途

 ·  · 

OpenAI CEO称开放权重AI模型不好,因DeepSeek和Qwen 2.5?

 ·  · 

超强大的Open - WebUI: 我的arXiv、图像生成和AI规划神奇工具包

 ·  · 

本地AI才是唯一的AI

 ·  · 

Apache Tika与Docling文本提取对比

 ·  · 

01 日   14

用JPEG压缩大型语言模型权重的思考

 ·  · 

Nemotron 70b与Qwen2.5 72b性能对比

 ·  · 

卡帕西又一成功之处

 ·  · 

寻找可修正英语语法的模型(类似Grammarly只修正语法功能)

 ·  · 

QwQ与o1等的对比示例

 ·  · 

Drummer"s Behemoth 123B v1.2 - 最终版

 ·  · 

安培架构显存大于24GB的GPU对比

 ·  · 

下一代基于视觉语言模型的OCR实际需求在哪?是否用于RAG?

 ·  · 

NVIDIA GPU的FP16性能列表(面向ExllamaV2/EXUI/TabbyAPI用户)

 ·  · 

Qwen 2.5 14B:为角色扮演进行无审查微调

 ·  · 

3个P40设备运行llama.cpp,推测解码是否加速?

 ·  · 

6000美元工作站构建反馈

 ·  · 

QwQ模型被微调后不再审查

 ·  · 

开源重要性的原因

 ·  · 

11 月   416

30 日   11

最佳AI聊天客户端搜索体验

 ·  · 

F5 - TTS语音克隆的最佳尝试

 ·  · 

最佳开源语音合成(TTS)模型是哪个?

 ·  · 

KoboldCpp 1.79发布:多项新功能更新

 ·  · 

Epyc Turin双CPU系统STREAM TRIAD内存带宽基准值近1TB/s

 ·  · 

优化XTTS - v2:10分钟内语音合成《哈利·波特》第一部且仅需约10GB显存

 ·  · 

距离优于两块3090的家庭实验室解决方案还有多远?

 ·  · 

Qwen浏览器相关

 ·  · 

可找到的所有MCP服务器列表

 ·  · 

阿拉伯语提问后以俄语和汉语思考

 ·  · 

INTELLECT - 1发布(指令+基础版):首个协同训练模型

 ·  · 

29 日   15

乔治 - AI:一个利用AI轻松实现自然语言控制计算机的API

 ·  · 

iPhone 14Pro可运行的最佳模型测试

 ·  · 

AtheneV2 72B:Qwen微调版本,专注代码补全、数学和日志提取

 ·  · 

使用Docker、Colab和Unsloth在本地16GB显存GPU上构建最便捷的VLM微调环境

 ·  · 

QwQ - 分离思维过程与最终输出的最佳方法

 ·  · 

双RX 7900 XTX下的AI模型测试

 ·  · 

Aion-RP-Llama-3.1-8B:全新角色扮演大师

 ·  · 

本地微调大型语言模型的最佳方案及16GB可训练内容

 ·  · 

Whisper用于实时转录为何无提示缓存?

 ·  · 

GLM - Edge系列:1.5B - 5B,聊天与视觉

 ·  · 

构建和使用llama.cpp的终极指南

 ·  · 

自制免费在线工具,将代码库转换为提示

 ·  · 

QWQ和R1无特殊标记时如何判断需更多推理步骤

 ·  · 

11月重大人工智能事件

 ·  · 

Vercel的AI组件生成器v0泄露的系统提示

 ·  · 

28 日   16

Qwen团队实验推理模型QwQ-32B - Preview在HuggingChat免费上线

 ·  · 

QwQ思考10000个token后给出的最搞笑笑话

 ·  · 

QwQ编码,惊叹于其良好表现

 ·  · 

14英寸M4 Max 128GB是否适合123B模型

 ·  · 

RTX 4090价格在5090发布时会大幅下降吗

 ·  · 

阿里巴巴QwQ表现惊人,英文提示偶尔出汉字

 ·  · 

LLaMA - Mesh本地在Blender中运行

 ·  · 

Deepseek新多模态模型Janus可在浏览器本地运行

 ·  · 

QwQ - 32B - Preview在farel - bench中的基准测试结果为96.67,优于Claude 3.5 Sonnet,略逊于o1 - preview和o1 - mini

 ·  · 

Stella嵌入模型性能佳但未广泛使用的原因

 ·  · 

本地运行QwQ - 32B 4位量化模型的误导向注意力评估,它胜过o1 - preview和o1 - mini

 ·  · 

阿里QwQ 32B模型挑战多模型且开源

 ·  · 

钢开发:人工智能代理的开源浏览器API

 ·  · 

Qwen发布QwQ预览版:提升AI推理能力的开放模型

 ·  · 

Anthropic“通用”MCP令人失望

 ·  · 

如何使用Mistral处理成人内容(小白科普)

 ·  · 

27 日   11

如何跟进当下最佳工具及其使用方法

 ·  · 

Judge Arena排行榜更新

 ·  · 

通过搜索扩展小模型:用0.5B微调+奖励模型匹配28倍大模型

 ·  · 

Qwen推理模型疑问

 ·  · 

AI探索中的一些随机问题

 ·  · 

Qwen或采用测试时缩放技术深入探索未知边界

 ·  · 

AWS发布百分百开源的多智能体AI框架

 ·  · 

预训练大语言模型微调需多久

 ·  · 

最便宜运行32B模型的硬件

 ·  · 

使用Qwen2.5 - Coder - 32B - Instruct数日后的评测

 ·  · 

Qwen2.5 - Coder - 32B - Instruct - AWQ本地运行及与OptiLLM和Aider的基准测试

 ·  · 

26 日   15

OLMo 2模型发布

 ·  · 

深度探索R1 - Lite可解决所有问题

 ·  · 

欧洲新模型openGPT - X Teuken 7B发布

 ·  · 

无有效信息可生成标题

 ·  · 

大语言模型(LLM)发布数量随时间的下降趋势已清晰可见

 ·  · 

Amica开源聊天机器人接口功能多样且可定制

 ·  · 

Hugging Face发布SmolVLM

 ·  · 

Sentient发布:本地个人助手,由Llama 3.2 3B驱动

 ·  · 

提示大小对速度的巨大影响

 ·  · 

大型模型的无损4位量化是否可行?

 ·  · 

1.5B模型的这个结果很棒吗?还是我缺觉疯了?

 ·  · 

AI时代的信息误导加速——以Reflection-70B为例

 ·  · 

MoDEM:领域专家模型混合体

 ·  · 

鼠标/键盘大语言模型导航项目

 ·  · 

MLX LM 0.20.1速度可与llama.cpp相媲美

 ·  · 

25 日   13

电脑装有两块7900XTX显卡,电源1000W是否会损坏

 ·  · 

模型上下文协议问世

 ·  · 

首次在本地设备运行Qwen2 - Audio进行语音聊天和音频分析

 ·  · 

构建利用树搜索完成任务的代理库

 ·  · 

Qwen2 - VL - Flux相关

 ·  · 

llama.cpp服务器采用推测解码,速度提升25% - 60%

 ·  · 

我现在能部分解释大语言模型下国际象棋的怪异之处

 ·  · 

小型模型令人印象深刻,用途广泛

 ·  · 

大规模LLM部署的经验分享

 ·  · 

新型轻量级文本到语音模型OuteTTS - 0.2 - 500M

 ·  · 

10000美元预算购置1台AI机器/服务器,求建议

 ·  · 

测试大语言模型的网络安全知识(15个模型受测)

 ·  · 

Optillm中的代码链推理在AIME 2024上击败o1 - preview

 ·  · 

24 日   12

用开源大语言模型创建聊天机器人产品是否值得

 ·  · 

AI视频合成工具:Qwen2.5 - 32B Coder与FFmpeg助力

 ·  · 

基于Qwen 2.5复现Teleut 7B - Tulu 3 SFT

 ·  · 

EXL2推理质量问题

 ·  · 

开源o1模型对9.9和9.11大小比较的可爱回答

 ·  · 

Behemoth系列模型v2.0 - v2.2的新特性与推荐

 ·  · 

类似SETI@home,助力召唤(AI相关)

 ·  · 

Mac Mini Exo:预算内可完全升级

 ·  · 

英特尔Arc最佳推理引擎

 ·  · 

Qwen2.5 - Coder - 32B - Instruct量化实验

 ·  · 

Drummer的Cydonia 22B v1.3与The Behemoth v1.1在22B的神奇之处

 ·  · 

能否使用非结构化文本文件微调大语言模型

 ·  · 

23 日   11

48GB VRAM以下最智能的无审查模型?

 ·  · 

苹果与骁龙的NPU信息

 ·  · 

Qwen2.5 14b模型(常规版和编码版)是否足以用于实际工作?

 ·  · 

Athene V2 Chat在特定任务上接近GPT - 4o和Claude 3.5

 ·  · 

性价比超高的AI硬件配置

 ·  · 

16GB显存下22B的Q4km或Q5的选择以及14B的Q4km Qwen2.5是否适合本地Gpt4o mini

 ·  · 

SmolLM2 - 135M - Instruct无需GPU即可快速总结网页搜索结果

 ·  · 

深度探索Deepseek CoT

 ·  · 

Meta在LMSYS竞技场上放置大量未发布模型

 ·  · 

分享你的通义千问编码者2.5设置耗时

 ·  · 

更新AI研究助手,支持OpenAI端点与Ollama

 ·  · 

22 日   15

连接多台电脑至强大LLM站以获取128GB显存的最佳方式

 ·  · 

是否有人在培育大型语言模型?

 ·  · 

不同模型编写可编译Rust代码性能比较

 ·  · 

Qwen:开源模型的替代选择

 ·  · 

需要更多显存(VRAM)

 ·  · 

大型PDF文档总结

 ·  · 

DeepSeek R1 Lite比其他模型更令人印象深刻

 ·  · 

英特尔开源大语言模型INTELLECT - 1完成训练

 ·  · 

Claude渴望与本地部署的Mistral聊天并克服相关限制

 ·  · 

阿里巴巴发布Marco O1,推进人工智能的开放式推理

 ·  · 

Deepseek与OpenAI竞争,谷歌在LMSYS排行榜胜过OpenAI

 ·  · 

深度探索Chad Deepseek

 ·  · 

创建v1.3 RPMax模型时发现损坏的标记器需警惕

 ·  · 

Marco - o1:迈向开放式解决方案的开放推理模型

 ·  · 

Vercel的AI组件生成器v0版系统提示泄露

 ·  · 

21 日   17

使用LM Studio测试MLX模型:推理速度小增但内存大增

 ·  · 

量化对Aider基准测试的影响

 ·  · 

Llama 3.2 Vision在Unsloth中可微调,16GB VRAM内且速度快2倍

 ·  · 

谷歌发布新模型登顶LMSYS

 ·  · 

明确表达:对《让我畅所欲言》的回应

 ·  · 

图卢3——一组拥有完全开放数据、评估代码和训练算法的最先进指令模型

 ·  · 

大语境窗口将如何改变大型语言模型格局

 ·  · 

AMD RX7900XTX 24GB与NVIDIA 4070Ti Super 16GB个人使用对比

 ·  · 

PocketPal AI集成Hugging Face模型库

 ·  · 

三星TinyClick:用于GUI自动化的单轮代理(0.27B,MIT许可)

 ·  · 

三星推出高斯2:三种尺寸的多模态生成式AI模型

 ·  · 

DeepSeek R1 lite表现惊艳,远超Qwen 2.5 coder

 ·  · 

M4 Max以11个令牌/秒运行Qwen 72B Q4 MLX

 ·  · 

苹果硅芯片(MLX)上Mistral大模型的新MLX量化版本

 ·  · 

DeepSeek AI的R1 - Lite - Preview展现强大实力

 ·  · 

NaturalLM:一款发音自然的大语言模型

 ·  · 

双通双倍能否提升模型性能

 ·  · 

20 日   18

CrisperWhisper在开放ASR排行榜中位居第二

 ·  · 

寻求拥有64GB内存M4版MacBook Pro的用户帮助

 ·  · 

AICI助力实时重写语境、受限生成与回溯KV - 缓存

 ·  · 

通过神经细胞自动机(NCA)在大型语言模型(LLM)中实现推理

 ·  · 

深源宣布R1 lite,在部分基准测试中胜过o1预览版

 ·  · 

新采样策略:T=3.0时准确率达75%

 ·  · 

思维链模型是这样工作的吗?

 ·  · 

求Mistral - Large - 2411新模型基准测试

 ·  · 

DeepSeek - R1 - Lite预览版正式发布

 ·  · 

自制可做研究的AI助手,基于Ollama本地运行

 ·  · 

评判竞技场排行榜:将大语言模型作为评估器进行基准测试

 ·  · 

代理内存相关项目

 ·  · 

闭源模型规模推测

 ·  · 

可靠的大语言模型编码任务排名榜

 ·  · 

树莓派上的大语言模型硬件加速(以低成本树莓派为基础计算机搭配高端AMD GPU)

 ·  · 

中国AI初创公司StepFun新万亿参数MOE模型在Livebench排名前列

 ·  · 

小型大语言模型的最佳用例

 ·  · 

考虑添加另一块RTX 3090

 ·  · 

19 日   11

美国会委员会建议国会开展类曼哈顿计划竞赛以达AGI

 ·  · 

Nvidia发布LLaMA - Mesh权重,推理代码可用

 ·  · 

Mistral发布Pixtral - Large及Mistral - Large更新

 ·  · 

ChatGPT搜索功能:比Perplexity更好吗?

 ·  · 

Qwen 2.5 32B解决所有问题

 ·  · 

LLMs作为评估器的基准测试:Judge Arena

 ·  · 

为何没有20 - 35B新模型来满足我的需求

 ·  · 

txtai 8.0发布:极简主义者的代理框架

 ·  · 

Llama 3.1 405B在Cerebras推理平台上每秒运行969个令牌

 ·  · 

Athene - V2为何无人问津?

 ·  · 

构建8x4090服务器的方法

 ·  · 

18 日   19

对同时与多模型交互的在意程度

 ·  · 

可自行训练的最强大型语言模型

 ·  · 

利用大语言模型进行编码示例

 ·  · 

寻求更优雅的扩展建议

 ·  · 

流行本地大语言模型EXL2量化的MMLU(4个类别)基准测试

 ·  · 

AMD GPU通过Vulkan在树莓派5上支持llama.cpp

 ·  · 

量化与Lora结合可全模型训练

 ·  · 

Pixtral Large发布:基于Mistral Large 2的视觉模型

 ·  · 

Mistral - Large - Instruct - 2411模型在Hugging Face

 ·  · 

11月18日Mistral Large 2411和Pixtral Large发布

 ·  · 

Q5与Q6量化模型的质量差异探讨

 ·  · 

AMD Ryzen AI 300系列加速消费级LLM应用中的Llama.cpp性能

 ·  · 

RTX 4090本地运行最佳编码助手模型评估

 ·  · 

Qwen2.5 - Turbo将上下文长度扩展到100万 tokens

 ·  · 

本地语音模型能否用于制作有声读物

 ·  · 

有人在llama.cpp为Qwen2VL创建拉取请求

 ·  · 

求推荐13B通用模型

 ·  · 

vLLM性能惊人

 ·  · 

用CLIP和文本嵌入模型创建全系统图像搜索工具

 ·  · 

17 日   10

语音助手现状如何?

 ·  · 

为开发者构建AI代理目录

 ·  · 

4090上Qwen 2.5的最佳设置分享

 ·  · 

Qwen 2.5 Coder 32B与Claude 3.5 Sonnet对比:是我错了吗?

 ·  · 

Chonkie:用于文本分块的RAG库

 ·  · 

Beepo-22B:基于Mistral Small微调的无审查模型

 ·  · 

12GB显存下,哪种Qwen模型最适合编码?

 ·  · 

本地运行大语言模型的选择与偏好

 ·  · 

开源项目/工具被OpenAI锁定?

 ·  · 

英伟达性能预测生成

 ·  · 

16 日   15

RAG最佳选择:Olama、LM Studio、AnythingLLM、Openwebui

 ·  · 

热门本地大型语言模型EXL2量化的HumanEval基准测试(涵盖2.5到8.0 bpw)

 ·  · 

Ollama与维基百科的结合?

 ·  · 

LLM咖啡馆的硬件配置

 ·  · 

元提示已出现

 ·  · 

Mistral AI发布Mistral Large 3和Pixtral Large(目前似乎仅API可用)

 ·  · 

构建RAG的困惑

 ·  · 

双3090下最佳无审查写作模型

 ·  · 

Nvidia推出LLaMA - Mesh:用Llama 3.1 8B生成3D网格,即将发布权重

 ·  · 

新构建完成 - 需GPU共享建议

 ·  · 

构建用于Aya - Expanse - 8B推理的迷你PC - 寻求建议!

 ·  · 

Codai:终端中的AI代码助手可理解完整项目上下文

 ·  · 

单文档训练模型的可行性

 ·  · 

Gemini-exp-1114在LiveBench上胜过GPT-4o,不敌sonnet和o1

 ·  · 

Memoripy:为AI带来短期和长期记忆存储

 ·  · 

15 日   13

LLMs被低估和过度炒作的原因

 ·  · 

OpenAI、谷歌和Anthropic构建更先进AI遇阻

 ·  · 

LLMs与国际象棋的怪异现象

 ·  · 

Gemma和Phi模型更新久未发布,3代和4代何时到来

 ·  · 

3090、4080super与A6000硬件选择对比

 ·  · 

中国公司仅用2000个GPU训练GPT - 4竞品

 ·  · 

小型语言模型使用体验

 ·  · 

技嘉推出AMD Radeon PRO W7800 AI TOP 48G显卡

 ·  · 

适用于苹果GPU的最佳语音合成(TTS)

 ·  · 

锐龙9 HX 370新APU推理性能如何

 ·  · 

Qwen 2.5 7B在Livebench中超越Mixtral 8x22B和Claude 3 Haiku

 ·  · 

5000英镑搭建大语言模型设备的最佳方案

 ·  · 

Omnivision - 968M:适用于边缘设备的视觉语言模型,标记减少9倍

 ·  · 

14 日   14

用Python编写可本地运行的语音自动回复未读邮件程序

 ·  · 

Qwen2.5 - Coder - 32B推理VRAM计算待确认

 ·  · 

构建可即时生成AI包装器的应用

 ·  · 

扩散模型有Loras,LLM为何没有?

 ·  · 

Nexusflow发布Athene - V2 - Chat和Athene - V2 - Agent

 ·  · 

Gemini Exp 1114在Chatbot Arena排名并列第一

 ·  · 

大型文档的RAG应用

 ·  · 

Claude 3.5惊现用户姓氏 - 隐私怪异现象

 ·  · 

ollama llama3.2 - vision:11b无图像时比llama3.1:8b慢20倍

 ·  · 

Qwen 32B Coder与72B在最新力扣题目的对比

 ·  · 

LLM微调的最佳实践

 ·  · 

在RTX 3050 Ti (4GB)的PyCharm中本地运行Qwen2.5 - Coder - 1.5B进行实时代码补全

 ·  · 

是否有人对qwen2.5 - coder:32b进行过量化比较?

 ·  · 

对Qwen2.5 - 14B的看法

 ·  · 

13 日   15

LLM模型的重复性与创造性及基于Qwen2.5 32B的ArliAI RPMax v1.3模型简述

 ·  · 

MMLU - Pro分数与推理成本

 ·  · 

传英伟达RTX 5090将投入生产,显存32GB

 ·  · 

高质量视频背景去除流程

 ·  · 

你的RAG技术栈是什么?

 ·  · 

Qwen 2.5 32B指令型与72B指令型对比

 ·  · 

大语言模型为何不擅长幽默?

 ·  · 

Aider Composer:实现Aider与VSCode无缝集成

 ·  · 

8GB显存下的最佳模型

 ·  · 

Qwen2.5-coder-32b-instruct的语言提示结果差异

 ·  · 

Qwen2.5 Coder创作的《贪吃蛇》手机游戏及开放网页界面成果

 ·  · 

开源桌面工具与大型语言模型交互

 ·  · 

CS毕业生都以为自己的“AI”是下一个独角兽,我受不了了

 ·  · 

精度扩展定律:BitNet是否好得难以置信?

 ·  · 

新的开源背景去除模型BEN达最先进水平

 ·  · 

12 日   16

Anthropic CEO被质疑是否简化模型

 ·  · 

如何顺利使用Qwen2.5 - Coder - Instruct

 ·  · 

Qwen 2.5 Coder与128K上下文窗口GGUFs的漏洞修复

 ·  · 

NousResearch推出Forge Reasoning API测试版和NousChat

 ·  · 

用Qwen2.5 - Coder 32b编写基本的chip8模拟器

 ·  · 

Qwen 2.5 Coder 14b在技术报告的多个基准测试中逊于7b - 奇怪!

 ·  · 

大语言模型在保持质量情况下成本逐年降10倍

 ·  · 

Qwen 2.5 32B Coder处理Cline提示不佳,易产生幻觉

 ·  · 

在Qwen2.5 - Coder:32b - Instruct - Q8_0上尝试此提示

 ·  · 

BitNet项目的问题在哪里?

 ·  · 

FastAPI - BitNet项目:通过FastAPI、Uvicorn和Docker运行微软BitNet

 ·  · 

最轻的人工智能设置

 ·  · 

0.5B语言模型的预期表现

 ·  · 

Pixtral仍未发布GGUF版本?

 ·  · 

开源AI模型迎来黄金时代

 ·  · 

Qwen-2.5-Coder 32B:革新编码的AI

 ·  · 

11 日   24

Qwen 2.5 Coder 32B可在HuggingChat免费使用

 ·  · 

原GPT - 4能答对的测试提示,Qwen - Coder - 32B也能答对

 ·  · 

在Macbook M4 Max上测试Qwen Coder 2.5 32b q8和q2_k的初步结果

 ·  · 

qwen - 2.5 - coder 32B使用3xP40和3090的基准测试

 ·  · 

谁将发布下一个有趣的模型?

 ·  · 

阿里如何在Cursor中运行通义千问32B

 ·  · 

疑似Qwen2.5 - Coder 72b

 ·  · 

内容无实质意义,无法生成有效标题

 ·  · 

Qwen - Coder的下一步计划

 ·  · 

我的AI开发者首月经历

 ·  · 

Qwen/Qwen2.5 - Coder - 32B - Instruct模型于Hugging Face发布

 ·  · 

Aider排行榜上的新Qwen模型!

 ·  · 

使用4台M4 Pro Mac Minis与雷电5(80Gbps)互联分布大型语言模型

 ·  · 

二进制向量嵌入超酷

 ·  · 

2位量化与小模型的抉择

 ·  · 

人类轻松完成而AI难以完成的基准测试

 ·  · 

AlphaFold 3模型代码与权重可供学术使用

 ·  · 

具有隐私功能的个人NotebookLM和类Perplexity的AI助手

 ·  · 

Ichigo-llama3.1 v0.4:MMLU得分64.66,多轮对话追踪更佳并拒非语音输入

 ·  · 

期待Qwen 2.5 32b,虽需临时抱佛脚

 ·  · 

Qwen Coder引发新热潮

 ·  · 

使用Llama 3.2 11B描述视频

 ·  · 

A100 32G SXM2计算卡用于Windows本地LLM

 ·  · 

MIT团队利用8B大语言模型结合测试时训练在ARC - AGI - PUB上得分达61.9%

 ·  · 

10 日   11

多语言模型与扩散模型的联合使用

 ·  · 

1TB内存能否满足DeepSeek v2.5 fp8最大上下文长度运行需求

 ·  · 

M4 128到手,有哪些好玩的尝试?

 ·  · 

Claude AI将通过与Palantir的新协议处理政府机密数据

 ·  · 

轻量级开源大语言模型用于自定义模式的文本到JSON转换

 ·  · 

寻求羊驼模型(Llama)使用者

 ·  · 

美国下令台积电停止向中国运送用于AI应用的芯片

 ·  · 

谷歌Trillium TPU(v6e)简介

 ·  · 

汇总已知的所有人工智能驱动的网络搜索软件

 ·  · 

升级我的设备

 ·  · 

Qwen2.5 - 更多参数还是更少量化?

 ·  · 

09 日   16

LMSYS新匿名大语言模型:蓝莓

 ·  · 

利用Florence - 2与Llama 3.2 Vision构建高级图像字幕应用[开源]

 ·  · 

有比Llama更适合电脑小白的离线/本地大语言模型吗(通过Ollama安装时)

 ·  · 

API探索后意识到ChatGPT和Claude记忆功能的价值

 ·  · 

今日创作的一些趣味图像

 ·  · 

Mac Mini M4 16GB测试结果

 ·  · 

修复Claude

 ·  · 

对Ministral 8B的看法

 ·  · 

构建一个支持多用户、有API且可用于其他自托管服务的Ollama支持的自托管Perplexity克隆版,还有哪些需要考虑的?

 ·  · 

GraphLLM框架更新,新增多特性

 ·  · 

大卫·奥(DavidAU)发布三个新模型

 ·  · 

48GB M4 Macbook Pro可运行的最大模型及速度

 ·  · 

Gemini可从OpenAI库访问

 ·  · 

Qwen2.5.1 Coder 7B在Aider排行榜上得分63.9%

 ·  · 

免费使用3080Ti处理无限请求

 ·  · 

构建通用人工智能(AGI)之二:解决强化学习问题的思路

 ·  · 

08 日   15

新基准FrontierMath公布,LLM最高得分2%

 ·  · 

Qwen2.5 - Coder将推出0.5B、3B、14B和32B版本

 ·  · 

OpenCoder:性能媲美顶级代码语言模型的开源可复现代码语言模型家族

 ·  · 

发布Vector Companion后进行重大性能更新

 ·  · 

MoE模型为何不那么流行

 ·  · 

LLMs下象棋的情况及其对AGI的启示

 ·  · 

GGUF量化方法缺乏合理的解释

 ·  · 

4090 SUPRIM X、M4 Max 40核GPU与128GB内存组合

 ·  · 

选择Linux系统时的发行版推荐及理由

 ·  · 

Geekerwan使用Ollama在新M4 Pro和M4 Max芯片上对Qwen2.5 7B至72B进行基准测试

 ·  · 

7B模型与GPT-4 Turbo性能相当

 ·  · 

是否有人正在快速训练GPT?

 ·  · 

往昔回顾:万斯与科斯拉的开源之争

 ·  · 

Chinchilla缩放定律与近期LLM改进存在矛盾

 ·  · 

Llama.cpp发布新的服务器前端

 ·  · 

07 日   9

Meta新模型fractal_alpha体验与初步测评

 ·  · 

谷歌意外泄露Jarvis AI可接管计算机预览版

 ·  · 

编写应用与赫兹(语音到语音模型)互动

 ·  · 

基于大语言模型、检索增强生成(及代理?)的《龙与地下城》互动世界构建应用征求意见:请评判我的图表和想法?是否已有类似产品?

 ·  · 

苹果智能服务器明年将配备M4 Ultra芯片

 ·  · 

分析12个基准测试,为不同用例找到合适规模的大语言模型

 ·  · 

本地羊驼的原生栖息地

 ·  · 

Qwen 2.5 Coder 7B与1.5B Instruct模型权重更新

 ·  · 

基于自由能原理构建AGI的构想

 ·  · 

06 日   13

发布两周后,旧版Sonnet 3.5在LiveCodeBench上仍胜过新版Sonnet

 ·  · 

Ollama现正式支持Llama 3.2视觉版

 ·  · 

新型超小语言模型:Wave网络

 ·  · 

AMD Threadripper 3600与256GB内存运行本地大语言模型的可行性

 ·  · 

RTX 3060 12GB可运行的最佳成人角色扮演模型

 ·  · 

AI寒冬来临前的应对之策(一):引言

 ·  · 

Llama 3.1 70B工具使用能力极差

 ·  · 

微软悄然发布用于解决复杂任务的开源多智能体系统Magentic - One及AutogenBench

 ·  · 

寻求本地可安装且具物理知识的大语言模型

 ·  · 

LLM竞技场惊现神秘新模型

 ·  · 

新PC组建:3090对新主机是否仍具意义?

 ·  · 

SORA即将到来?

 ·  · 

Qwen 2.5登上官方LiveCodeBench排行榜

 ·  · 

05 日   12

200美元单板计算机运行3B模型,每秒约10+个token,可做什么?

 ·  · 

构建设备端小语言模型(SLM)排行榜

 ·  · 

8B VLM在130美元RK3588单板计算机上运行,NPU加速 - 4个令牌/秒,6.5秒延迟(MiniCPM - V 2.6)

 ·  · 

自动标记帖子的原因不总是清晰

 ·  · 

寻找最佳小参数量且大语境窗的LLM模型

 ·  · 

角色扮演模型需具备推理能力,否则可信度低

 ·  · 

腾讯推出强大模型

 ·  · 

基于LLaMa架构的零样本语音克隆OuteTTS - 0.1 - 350M,CC - BY许可

 ·  · 

OpenAI新特性"预测输出"使用推测性解码

 ·  · 

腾讯推出389B MoE开源权重模型

 ·  · 

Qwen2.5 - Coder - 32B的发布进度

 ·  · 

程序员水平日益提高

 ·  · 

04 日   16

llama.cpp补丁使我的最大上下文大小翻倍

 ·  · 

预算硬件用于运行本地模型

 ·  · 

RTX 3090与Threadripper 3970X及256GB内存的LLM推理基准测试

 ·  · 

成功购买更多内存后运行Llama 3.1 405B

 ·  · 

临近2025年,3090显卡是否仍有意义

 ·  · 

需向她解释(无具体指向内容)

 ·  · 

寻求本地大语言模型解决方案以持续处理我的代码库

 ·  · 

失业后每小时需申请尽可能多的工作

 ·  · 

小型大语言模型100次想象随机人物的数据可视化

 ·  · 

英伟达A100 SMX4 64GB的初步测试情况

 ·  · 

用Llama 3.2 3B模型意外构建终端命令伙伴

 ·  · 

AMD使用性能调查

 ·  · 

Hertz - Dev:单RTX 4090上理论80ms、实际120ms延迟的85亿参数开源音频对话AI模型

 ·  · 

仅用FastAPI构建代理:小型语言模型大获成功

 ·  · 

处理未使用令牌的技巧?老是受阻

 ·  · 

最佳开源语音克隆(有大量参考音频)

 ·  · 

03 日   10

本地大语言模型独特的受欢迎用途

 ·  · 

英伟达发布涉及2亿Linux和Windows游戏玩家的安全警告

 ·  · 

探索聊天时AI内部的替代想法

 ·  · 

分析不同输入长度下各类TTS模型的延迟

 ·  · 

英特尔Arrow Lake可支持4个DIMM,速度最高达6400

 ·  · 

最佳(理想无审查)长文本模型(128k)?

 ·  · 

小模型(<5B)的MMLU - Pro分数

 ·  · 

Llama 3.2 90b - vision去向成谜

 ·  · 

3090显卡的最优功耗配置测试

 ·  · 

大AI公司为何不支持RAG解决方案?

 ·  · 

02 日   10

运行Llama3.1 70b需要多少内存?

 ·  · 

推理时模型能否自我重排?

 ·  · 

原来它不是开源的

 ·  · 

为AI计算机使用打造的安全桌面沙盒

 ·  · 

推出语义集成层级联(CaSIL):一个过度设计却有效的思维/推理算法

 ·  · 

苹果M4 Max芯片:高达546GB/s的内存带宽

 ·  · 

llama.cpp在不同设备/后端下的计算与内存带宽效率

 ·  · 

使用数台100k H100s训练Llama 4

 ·  · 

电源限制与核心时钟限制效率的最终测试

 ·  · 

微软的生成式AI脚本

 ·  · 

01 日   13

思维树(ToT)的发展现状

 ·  · 

AMD发布10亿参数完全开源模型

 ·  · 

Qwen2.5 14b是代理的最佳模型

 ·  · 

中国军队科学家利用Meta技术打造‘军事AI’

 ·  · 

IBM推出新库Docling,可转换文档格式

 ·  · 

试用.NET中的语义内核

 ·  · 

多数人是否在本地以gguf格式运行大语言模型?

 ·  · 

大语言模型的置信分数是否有意义?

 ·  · 

视觉大语言模型解释xkcd漫画的基准提案

 ·  · 

警察发声:生成式AI不存在CBRN灾难性风险

 ·  · 

Chat Arena排名的闭源和开源语言模型

 ·  · 

新量化方法——QTIP:格状编码量化与非相干处理

 ·  · 

同一机器上的两块GPU

 ·  · 

10 月   461

31 日   18

AI生成实时游戏玩法

 ·  · 

试用微软OmniParser

 ·  · 

Anthropic呼吁尽早进行AI监管

 ·  · 

使用Flux Fast快速创建近实时图像生成应用(代码少于50行)

 ·  · 

SmolLM2:用于设备端应用的最佳小模型

 ·  · 

Hugging Face发布SmolLM v2,含不同规模版本

 ·  · 

GPU速度与每秒令牌数和功耗[测试结果]

 ·  · 

征集最难结构化输出提示/模式并给出可用提示

 ·  · 

克劳德AI广告

 ·  · 

AI计算社交网络助力项目

 ·  · 

Ollama新漏洞:更多模型,更多概率语言模型风险

 ·  · 

最小可行的大型语言模型

 ·  · 

古登堡训练材料的问题

 ·  · 

Meta发布MobileLLM系列模型(125M、350M、600M、1B)

 ·  · 

Llama 4模型将于2025年初推出,将在超10万个H100集群上训练且具备新特性

 ·  · 

Whisper - Zero如何减少幻觉?

 ·  · 

对SuperNova - Medius - GGUF的看法

 ·  · 

十月的人工智能大事件

 ·  · 

30 日   12

新型AI生成媒体格式:非游戏非电影的"梦"

 ·  · 

Starcannon - Unleashed - 12B - v1.0问世:融合两大模型的成果

 ·  · 

借助大语言模型开始编程

 ·  · 

M4 Max支持高达128GB统一内存

 ·  · 

M4 Max Macs的最大内存容量相同,不理想

 ·  · 

苹果新MacBook Pro广告中的截图

 ·  · 

MacBook Pro M4 Max:内存带宽高达526GB/s

 ·  · 

构建100%在浏览器运行的段落重写器

 ·  · 

AI用于编码:支持哪些语言或对哪些语言效果好?

 ·  · 

构建本地替代OpenAI API的Cortex之旅

 ·  · 

目前最小的大语言模型有哪些?

 ·  · 

谷歌软件工程师和程序员数量的探究

 ·  · 

29 日   18

自制可访问谷歌邮箱、日历和任务的个人助手来管理时间克服ADHD

 ·  · 

OpenAI将于2026年开始使用AMD芯片并可能自制AI硬件

 ·  · 

谷歌新研究:松弛递归变换器,通过跨层共享参数在最小性能损失下缩小现有大语言模型

 ·  · 

RAG在大型代码库中的有效性

 ·  · 

Meta发布Layer Skip:端到端LLM加速解决方案

 ·  · 

开发可在iOS、macOS和visionOS运行MLX模型的应用

 ·  · 

Mac Mini性价比凸显:比5090便宜且VRAM近翻倍

 ·  · 

MacBook性能提升或使本地模型更易用

 ·  · 

苹果M4/Pro版Mac Minis开售

 ·  · 

在8块RX 480(4Gb)上运行Ollama

 ·  · 

Stable Diffusion 3.5 Medium发布于Hugging Face

 ·  · 

我糟糕的Llama 3.2视觉微调经历

 ·  · 

OSI发布开源AI定义1.0版本

 ·  · 

AI安全的危险风险

 ·  · 

MacOS 15.1中的Apple Intelligence提示模板

 ·  · 

伊利亚·苏茨克维访谈后模型可靠性发展

 ·  · 

文档理解非常困难:实例说明

 ·  · 

三个增强版的Llama 3.2模型,每个7B用于创意用途且无审查

 ·  · 

28 日   18

中美顶尖大语言模型间隔仅5个月,中国排名第一且世界第六的模型仅用2000个H100训练即达SOTA

 ·  · 

微调嵌入以用于RAG的经验教训

 ·  · 

RTX 5090或于1月发售,起售价2000美元

 ·  · 

8GB内存下的最佳<10B参数模型

 ·  · 

Mistral.rs v0.3.2金属性能提升26%并推出PyPI安装包

 ·  · 

开源Promptwright:用本地LLM生成大型合成数据集

 ·  · 

用视觉模型助力《帝国时代2》获胜

 ·  · 

超小语言模型有何意义?是否有用?

 ·  · 

成人角色扮演的大语言模型推荐

 ·  · 

Llama.cpp校正设置更新,推理引擎之战

 ·  · 

M1 - 3 Max运行20 - 32B模型的处理和生成速度

 ·  · 

在本地低端RTX3000 GPU上运行Llama的最佳方式

 ·  · 

CPU推理中核心数量的重要性

 ·  · 

哪些开源模型可与gpt - 4o - mini相媲美

 ·  · 

4张3090组建家庭服务器:构建建议与软件选择

 ·  · 

Pixtral表现惊艳

 ·  · 

测试1B/3B小语言模型在本地RAG中的能力及收获

 ·  · 

Mistral - Nemo 12b编码优势下的竞品探寻

 ·  · 

27 日   10

视觉标记器:助力大型语言模型在网页创建自动化的扩展工具

 ·  · 

Meta发布谷歌NotebookLM的开源版本

 ·  · 

对llama3提示格式的困惑

 ·  · 

glm - 4 - voice - 9b可在12GB GPU上运行

 ·  · 

推理引擎之战:Llama.cpp、MLC LLM与vLLM的对比测试

 ·  · 

最佳文档分析与智能引用RAG系统

 ·  · 

Ollama已推出llama3.2 - vision测试版

 ·  · 

Cohere发布Aya Expanse多语言AI模型家族

 ·  · 

微软悄然发布OmniParser:视觉代理截图转结构化元素工具

 ·  · 

Gemini 2令人失望?

 ·  · 

26 日   7

新型金融领域模型Hawkish 8B通过CFA一级且在数学和金融基准测试中胜过Meta Llama - 3.1 - 8B - Instruct

 ·  · 

AMD因AI需求不确定削减台积电订单

 ·  · 

避免大型语言模型自我回复的技巧

 ·  · 

Tinybox Pro (8 x RTX 4090)内部一瞥

 ·  · 

Drummer发布123B v1.1的Behemoth和22B v1.2的Cydonia创意版

 ·  · 

你最不受欢迎的大语言模型观点有哪些?

 ·  · 

两款10B新模型:作家“J.古登堡”与作家 - “不羁之笔”(无审查)

 ·  · 

25 日   17

Llama 405B在Nvidia H200 SXM上可达142 tok/s

 ·  · 

DeepMind与HF合作将水印引入模型推理

 ·  · 

Mistral发布Pixtral基础模型:Pixtral - 12B - Base - 2409

 ·  · 

Drummer"s Nautilus 70B v0.1:L3.1 Nemotron 70B的RP微调版本

 ·  · 

G.Skill新款DDR5 - 9600 CUDIMM内存条风冷可达DDR5 - 10000速度

 ·  · 

智谱AI发布开源端到端语音大模型GLM - 4 - Voice

 ·  · 

LLaMA.cpp主线合并DRY采样器

 ·  · 

是否有人使用1B或3B 3.2版Llama

 ·  · 

突破内存壁垒:对比损失近乎无限的批量大小缩放

 ·  · 

4090(24Gb显存)的LLM推荐

 ·  · 

白宫行动对开源的影响

 ·  · 

RAG有哪些你知道的GUI选项?

 ·  · 

最真实无审查的人工智能模型

 ·  · 

Cerebras推理速度提升3倍:Llama3.1 - 70B每秒突破2100个token

 ·  · 

大语言模型能否理解?理解的本质

 ·  · 

适用于‘计算机应用’类的最佳本地视觉模型

 ·  · 

距离能写出优秀作品的大语言模型还有多远?

 ·  · 

24 日   17

xMAD推出市场上最佳量化Llama3.1-405B和8B模型

 ·  · 

对新版Sonnet 3.5的失望

 ·  · 

Prime Intellect AI本月推出INTELLECT - 1:开创性的100亿参数民主AI语言模型

 ·  · 

VSCode结合Cline、VLLM与Qwen2.5实现快速运行

 ·  · 

笔记本上搭载2个64GB VRAM的MI60?雷电4多eGPU!

 ·  · 

一行代码对GGUF模型进行基准测试

 ·  · 

ChatterUI v0.8.0发布 - 现支持外部模型加载

 ·  · 

Meta发布量化版Llama模型

 ·  · 

使用4块RTX 3090对MLC LLM和Mistral Large Instruct 2407 q4f16_1进行功率缩放测试(150 - 350瓦)

 ·  · 

扎克伯格:发布量化版Llama 1B和3B设备模型

 ·  · 

CohereForAI发布aya - expanse - 32b模型

 ·  · 

支持5个以上GPU的最便宜主板

 ·  · 

LLMs的一些被低估的用途有哪些?

 ·  · 

我应拥有自己的大语言模型聊天记录

 ·  · 

Qwen Coder版本相比基础版本优势如何

 ·  · 

基于个人理念的精选模型

 ·  · 

本地项目新卡片

 ·  · 

23 日   15

使用Docker Compose运行本地AI栈

 ·  · 

推出Arch - 用于快速且可观测的智能体应用的开源智能中间件

 ·  · 

Claude 3.5 Sonnet在SimpleBench得分提升

 ·  · 

Aider:在24GB VRAM下优化性能(持续微调)

 ·  · 

Qwen 32B全面微调用于角色扮演/故事创作:EVA

 ·  · 

单3090(或4090)可使用的模型列表

 ·  · 

深入探究Claude的视觉代理计算机使用

 ·  · 

适配单张3090的最智能模型

 ·  · 

何时会有本地开源的Suno?

 ·  · 

新旧Claude 3.5:速度与输出质量快速评测

 ·  · 

发布免费竞品VisioPilot,可本地运行LLM

 ·  · 

当今最佳3B模型?

 ·  · 

Claude Sonnet 3.5登顶Aider排行榜,大幅领先对手

 ·  · 

Anthropic博客:Claude在编码演示中突然暂停查看黄石公园照片

 ·  · 

推出Fast Apply - 复现Cursor的即时应用模型

 ·  · 

22 日   16

急需在家进行SETI分布式训练

 ·  · 

Hugging Face CEO称AI领域封闭性增强协作性减弱影响发展

 ·  · 

小参数语言模型(260k参数)在Dalek内部运行

 ·  · 

花费数周构建无代码网络自动化工具,Anthropic推出计算机使用API使其面临困境

 ·  · 

Outlines实现结构化生成,现支持Rust

 ·  · 

Genmo发布Mochi 1:新的SOTA开源视频生成模型(Apache 2.0许可)

 ·  · 

Claude 3.5 Sonnet:计算机使用体验?

 ·  · 

开源推理模型Steiner受OpenAI启发

 ·  · 

克劳德3.5新模型:计算机使用、十四行诗与俳句

 ·  · 

Transformers.js v3发布:多项新特性

 ·  · 

构建LLM比较工具,或多付50% API费用

 ·  · 

若5090泄露规格属实,你愿出的最高价是多少?

 ·  · 

Stability AI发布Stable Diffusion 3.5,含三个变体,10月29日上线Medium

 ·  · 

用Llama 8B和70B开发亚马逊品牌筛选Chrome扩展

 ·  · 

最佳成人角色扮演模型 - Mistral - Small - 22B - ArliAI - RPMax - v1.1

 ·  · 

新文本到视频模型:Allegro

 ·  · 

21 日   13

基于特定引言的系统指令

 ·  · 

开源OCR最佳视觉模型

 ·  · 

Qwen 2.5系列不同版本模型的基准测试

 ·  · 

本月已达三次?

 ·  · 

OpenAI新的群体代理框架是否过于简约?

 ·  · 

开源网页扩展BrowserLlama可本地交互网页

 ·  · 

近期公开权重发布采用更严格许可

 ·  · 

GPU匮乏下的大语言模型角斗场

 ·  · 

TikTok所属公司开除破坏AI项目的实习生

 ·  · 

PocketPal AI开源

 ·  · 

Ollama预发布版初步实验性支持Llama 3.2视觉

 ·  · 

IBM发布Granite 3.0模型

 ·  · 

微软开源LLM平台bitnet.cpp是否源于llama.cpp

 ·  · 

20 日   14

英伟达nGPT:超球面上优化实现更快收敛

 ·  · 

长文本下的认知过载攻击:提示注入

 ·  · 

在Linux系统下使用AMD GPU运行Llama

 ·  · 

点赞和点踩系统如何助力模型训练

 ·  · 

1位LLM何时能真正启动?

 ·  · 

Mistral-Large-Instruct-2407比Claude3.5和ChatGPT更实用

 ·  · 

Firefox为大型语言模型添加侧边栏

 ·  · 

利用替代词和概率生成文本

 ·  · 

提示工程工具PROMPT++

 ·  · 

GraphLLM推出图形界面:用于大语言模型推理的开源框架

 ·  · 

为Windows打造更佳苹果智能写作工具版本

 ·  · 

用大型语言模型反编译二进制代码

 ·  · 

OpenAI O1模型的替代方案

 ·  · 

Anthracite组织发布v4系列多种规模模型

 ·  · 

19 日   15

轻量级本地大语言模型实现多页PDF手写识别

 ·  · 

RAG不适用于提取精确信息时的替代方案

 ·  · 

Claude编写脚本使Llama 3.2 1B模拟Twitch聊天

 ·  · 

微软开源bitnet.cpp:可在CPU直接运行的1位LLM快速推理框架

 ·  · 

寻求6块3090推理软件设置的建议

 ·  · 

Meta推出结合文本与语音输入/输出的Spirit LM开源模型

 ·  · 

交互式的从Top K中选择下一个标记

 ·  · 

创建基于Mendeley阅读量追踪热门AI论文的网页应用

 ·  · 

未实现的LLM项目创意

 ·  · 

OSI指认Meta误导性的‘开源’AI模型

 ·  · 

最佳本地运行的即用型RAG解决方案

 ·  · 

我的2张RTX 3090、RTX A1000和10张WD Red Pro 10TB因电涌损坏

 ·  · 

何时推出Mistral大型模型的1比特版?

 ·  · 

使用405b的Llama 3.1,服务器内存是否够用

 ·  · 

大语言模型构建舒适工作流

 ·  · 

18 日   17

谷歌何时推出新的Gemma 70B模型

 ·  · 

低预算运行大模型的最佳硬件,P40是否值得?

 ·  · 

Grok 2在LiveBench上表现逊于Llama 3.1 70B

 ·  · 

Meta FAIR分享新研究、模型与数据集

 ·  · 

基于ChatGPT生成的糟糕故事

 ·  · 

哪些AI模型是被忽视的‘宝藏模型’?

 ·  ·