
AI的最终私人助理是其童年。今天清晨,Openai首席执行官Ultraman Sam突然发推文说他无法入睡,因为有重要的新功能要启动。很快,一项预期的新功能正式发布了Openai。从现在开始,Chatgpt可以通过每次对话来参考您过去的所有聊天历史记录,提供更多个性化的响应,并根据您的建议和建议对其进行优化。有些网民可以说,它现在已经了解了您,即使您对话中出现的所有想法也是如此。这意味着Chatgpt可以随着时间的推移了解更多有关用户的知识,变得更聪明,更个性化,而不仅仅是无情的现实评论工具。现在该什么也没说了,但是现在您可以对此,Mait关心以前的对话。在之前,OpenAI添加了一个称为“内存”的功能,该功能提供了有限的信息以维护和使用以进行未来响应。用户通常需要切断Rly要求ChatGpt记住一些信息以打动此功能,即使AI有时会尝试猜测要担心什么。当将某些信息添加到其内存中时,将显示一条消息敦促其内存更新。今天宣布的新改进范围超出了这一点。访问此功能后,您将看到一个弹出窗口,上面写着“引入新的和改进的内存功能”。以前,Chatgpt接口中的复选框以启用或禁用内存监视,但现在有两个复选框。 ANG“参考 - 储存内存”是一个旧的内存函数,它是容量有限的重要信息库。第二个是新功能:“聊天历史参考”,它允许Chatgpt使用所有以前的上下文对话并相应地调整新响应的内容。与保存内存的旧版本不同,聊天历史记录保存的信息是无法访问或修改的,因此您只需选择I -ON或ifff。新的chatgpt内存选项。就范围而言,将在Chatgpt Plus和Pro用户中启动第一批新的内存功能,但是OpenAI仍需要在接下来的几周内逐渐部署。一些国家和地区(英国,欧盟,冰岛,列支敦士登,挪威和瑞士)尚未包括在促销中。 Openai表示,新的功能将在稍后启动企业用户,团队和教育,并没有宣布特定日期。该公司没有为免费用户披露任何计划。发布新功能后,人们互相尝试。简而言之,从您进行操作的那一刻起,印象就会发生变化。 Chatgpt永远不会告诉您,但是您会熟悉您:许多人问Chatgpt:“几天前我工作哪些项目?”,AI可以自然地分类和回答。有人在问,告诉我一些关于我没有期望的事情,它会唤醒一些死亡的回忆:然后你说changpt是什么令人尴尬的事情?它使人们感到有些破碎:似乎每个人都感到惊讶的是,大型模特都有这样的记忆能力。机器学习社区中的某些人说,这是对话系统的飞跃,可能是技术发展点。如果您正在寻找适合特定情况,个性和偏好的答案,则可以显着改善Chatgpt的实用性。从较高的角度来看,长期内存也成为从一个时间工具到真正的助手的聊天。也许在不久的将来,它会比您更好地了解您。 OpenAI研究的科学家,AI Libratus的发明者Noam Brown表示,记忆能力标志着大型模型的接触范式的变化。但是,在测试之后,有些人被指向当前的内存功能也存在一些缺陷,因为它仍然存在较大的幻觉问题,并且不存在的记忆可能是严重的输出。此外,chatgpt尚未能够准确匹配对话和内存的日期,这是以前在内存功能中存在的问题。分享他们帐户的网民在测试新功能后也表达了他们的分歧:从技术角度来看,大语言模型(LLM)通常使用两种类型的内存:在模型培训期间AI模型中获得的一个数据,另一个数据是上下文记忆(对话的历史记录)。通常,一旦开始新的会议,诸如Chatgpt之类的大型模型忘了您在谈话中所说的话。但是对于大型模型应用程序,人们总是期望实现长期内存的AI并变得更聪明。许多项目试图为LLM超出上下文窗口以外的长期内存。这些方法包括不断变化的上下文历史记录,总结和压缩过去的历史记录,将矢量数据库链接到外部存储信息,或者简单地将信息与常规系统 - 启动系统(S在每个聊天开始时,Uch作为Chatgpt的说明),依此类推。虽然当前的ChatGPT内存功能可能使用生成获取(RAG),但它可能是在培训数据实践之外的知识基础,然后再在不重新验证模型的情况下制定响应之前。对于大型模型提供商而言,这是一种有效提高LLM输出的方式,使AI在不同情况下保持相关性,准确性和成为Praktiko。与以前的内存版本一样,用户也可以完全禁用ChatGpt内存的长期功能(打开隐身模式),并且不会用于使用临时聊天标志的对话。值得注意的是,在发布chatgpt记忆功能时,Openai还发布了46分钟的面试视频,包括Ultraman Sam和GPT -4.5核心成员Alex Paino,Daniel Selsam和Tootoonchian开始谈论并谈论最新模型和培训Lates的过程T模型未来。有一个关键点的摘要:GPT-4.5项目持续了两年,其目的是使新模型比上一代更聪明(GPT-4)。在这一代模型中,OpenAI使用的计算训练的实力已从数千个GPU增加到十万GPU,这带来了许多意外的问题。尽管始终有效地从数据中学到了变压器体系结构,但是当前大型模型的OpenAI培训中的瓶颈似乎不是计算能力,而是数据。未来的发展取决于采样效率较高的算法; GPT-4培训只需要5-10人;下一代大型模型预计将超过1000万个GPU运行,但该过程可能是“半同步”或分发的。 Openai说,在开发过程中,GPT-4.5模型显示出一些以前没有明确计划的微妙功能,并且项目结果最终证明了d现有的“扩展法”。在最前沿,Openai团队讨论了更大的培训的潜力和挑战,将使用数百万GPU。他们还讨论了训练阶段与模型的推断,数据质量的重要性以及当前硬件的限制之间的关系。参考内容:https://x.com/sama/status/19103344444444444444444445HTTPS://x.com/polyniamial/status/1910379351759347860HTTPS://wwwww.youtube.co m/watch v = 6njzopacruqhttps://arstechnica.com/ai/2025/04/chatgpt-can-bo