2023 08-14 Llama和ChatGPT都不算开源 08-09 单一大模型能包打天下吗? 08-08 机器学习模型的grokking是记忆还是泛化? 08-07 面临转型的免费开源软件 08-06 给 LLM 洗脑能行吗? 08-06 大型语言模型系统和产品的构建模式 08-06 大语言模型开源的利与弊 08-06 AI的认知极限 08-06 科学思维的能力是否是智慧的核心本质? 08-06 AI不会取代人类,但使用AI的人将取代不使用AI的人 08-01 创新研究的原则和启示 08-01 是什么让Stack Overflow日渐衰落? 07-24 ChatGPT时代怎么教编程 07-24 让LLM总是用事实而不是虚构来回答问题 07-23 人和大模型之间最大的差距 07-23 大模型参数规模越大越好吗? 07-23 医疗AI会取代人类医生吗? 07-23 最重要的编程习惯 07-22 用AI生成数据训练AI会有问题吗? 07-22 好的代码就像一封情书 07-22 LLaMA2不是真正意义上的“开源” 07-22 Meta为何选择开源Llama 2? 07-10 沉迷工具不会让你成为大师 07-06 AI权重开"源"怎么论 07-05 AIGC时代程序员如何保持领先 06-29 科研数据分享最佳实践 06-28 图解:私有知识库LLM聊天机器人 06-28 LLM赋能的自主智能体(Agent) 06-28 学术界能否与资源雄厚的工业界相竞争?计算机图形学的历史观点 06-27 Open LLM Leaderboard排名之谜 06-27 关于大型语言模型评估的思考 06-26 脚本(Script)与程序(Program) 06-26 AI工程师入门指南 06-26 聪明人解决难题可能更慢 06-26 用LLM生成SQL的注意事项 06-25 语义压缩导向编程 06-20 ChatGPT类服务汇总