logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型Agent的核心还是prompt?

先说结论,大模型Agent的核心不仅仅是prompt,但prompt确实是目前实现Agent的重要手段之一。要理解这一点,我们先得澄清什么是AI Agent。作为一个智能体,AI Agent应当具备理解周围环境、做出决策和采取行动的能力。与传统AI依赖用户输入的Prompt与大模型交互不同,AI Agent融合了规划、记忆和工具使用等关键功能,在操作时不需要逐步的提示,我们只需设定一个目标,它就能

文章图片
#开源#人工智能#ide +1
提示工程是什么?GPT-4大模型提示工程新手指南!

那么,究竟什么是提示工程呢?可以把它理解为教你如何用人工智能的语言与其对话。大型语言模型,比如 GPT-4,虽然非常智能,但是它需要正确的问题才能给出最好的答案。提示工程就是要精心设计这些问题。这就像给人工智能一张清晰的地图,让它知道你在寻找什么。你将学会如何使用正确的词语、设置你的问题,并为人工智能提供它所需要的信息,使其能够理解并以最有帮助的方式做出回应。对于任何想要深入研究AI模型应用的人来

文章图片
#开源#人工智能#知识图谱 +1
AI时代,字节跳动的推荐系统还会最强吗?——字节最新重磅论文《HLLM分层大模型》,开启“新千人千面”!

‍《HLLM:通过分层大型语言模型增强序列推荐以进行项目和用户建模》——论文作者全部来自ByteDance关于字节和旗下的抖音、TikTok、今日头条等,「推荐算法」一直是绕不开的主题,甚至被认为是相较于腾讯、快手等竞争制胜的法宝之一。今天,对于大模型和算力的投入,也为字节争取到了AI时代新的船票……豆包、扣子等产品的海外流量持续增长,Gauth等也有突围的势头。随着AI底层技术的演进,内容创作、

文章图片
#人工智能#深度学习#机器学习 +2
HippoRAG 2:从RAG到记忆——大模型的非参数化持续学习

今天我们将探讨一篇RAG的论文,主题是大模型的非参数化持续学习框架——HippoRAG 2。该研究针对大模型在吸收新知识和避免灾难性遗忘方面的挑战,提出了一种新的方法,模拟人类长期记忆的动态性和关联性。,为大模型的持续学习提供了新的可能性。1. 基本信息。

文章图片
#学习#数据挖掘#人工智能 +2
大模型私有化+精调:面向垂直行业与特定场景之需

大模型私有化(Model Private Deployment)指的是将预训练的大型人工智能模型(如GPT、BERT等)部署到企业自己的硬件环境或私有云平台上。与公有云服务或模型即服务(Model-as-a-Service)相比,私有化部署能够给企业带来更高级别的数据安全性和自主控制能力。对数据隐私和安全要求高、需要自主控制AI模型运行环境的企业而言,或者在特定地理位置因法律法规限制不能使用公有云

文章图片
#python#开发语言
一文彻底搞懂大模型 - 基准测试(Benchmark)

标准化评估:提供一套标准化的测试流程和评估指标,确保不同模型之间的比较具有公平性和一致性。性能比较:帮助研究人员和开发者了解不同AI模型在同一任务上的性能差异,从而选择最适合的模型。技术进步追踪:通过定期更新基准测试,追踪AI技术随时间的进步和发展。

文章图片
#目标跟踪#人工智能#深度学习 +1
汇总!7种大模型的部署方法!

选择部署框架的关键在于任务需求。只有根据实际需求来确定合适的框架,才能确保项目的顺利推进和成功实现。因此,在选择部署框架时,我们应该深入了解框架的特性、优缺点以及适用场景,综合考虑项目规模、技术栈、资源等因素,从而选择最适合的框架来支撑项目的实施。这样不仅可以提高开发效率,还能降低项目风险,确保项目的顺利推进和最终成功。追求高性能推理?DeepSpeed是您的理想之选。

文章图片
#人工智能#机器学习#深度学习 +2
新型智算中心改造:网络成大模型训练瓶颈,节点内外多方案并存

本文来自“智算中心是以GPU、AI加速卡等智能算力为核心,集约化建设的新型数据中心;随着大模型普遍进入万亿规模,算力、显存、互联需求再次升级,高速互联的百卡“超级服务器”可能成为新的设备形态,智算中心将走向超级池化阶段,对设备形态、互联方案、存储、平台、散热等维度提出新的要求。网络互联:节点内外多方案并存。1)节点内:私有方案以英伟达NVLink为代表,NVLink已经发展至第五代产品,同时支持5

文章图片
#网络#大数据#人工智能 +3
大模型低秩适应(LoRA)技术全面综述:背景、基础、前沿、应用、挑战

基础模型(在多样、大规模数据集上训练的大规模神经网络)的快速发展引发了人工智能领域的变革,在自然语言处理、计算机视觉和科学发现等多个领域实现了前所未有的进步。然而,这些模型通常具有数十亿甚至数万亿的参数,在适应特定下游任务时带来了巨大挑战。低秩适应(LoRA)作为一种极具前景的方法应运而生,它提供了一种参数高效的机制,能够以极小的计算开销对基础模型进行微调。本综述首次全面回顾了 LoRA 技术在从

文章图片
#搜索引擎#百度#数据库 +3
关于大模型和知识图谱、本体的一场讨论

构建本体的第一步是清晰地定义领域和范围。这涉及识别主题内容,设定边界,并确定本体的目的。明确本体的预期用途和希望回答的问题至关重要。这一阶段还包括概述要建模的概念、关系和知识类型,并决定是一般化还是专业化的程度。

文章图片
#知识图谱#人工智能#算法 +4
    共 404 条
  • 1
  • 2
  • 3
  • 41
  • 请选择
OSZAR »