logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

基于大模型 + 知识库的 Code Review 实践

一句话介绍就是:基于开源大模型 + 知识库的 Code Review 实践,类似一个代码评审助手(CR Copilot)。飞书文档没有格式要求,能看懂正确代码是怎样就行chunk_size: 控制每个块的长度。例如设置为 1024,则每个块包含 1024 个字符。: 控制相邻两个块之间的重叠长度。例如设置为 128,则每个块会与相邻块重叠 128 个字符。

文章图片
#代码复审#学习#人工智能 +2
2024外网传疯了的LLM大模型书籍:从零构建大型语言模型!

个人主页:https://sebastianraschka.com/Sebastian Raschka 是一名机器学习和人工智能研究员,曾在威斯康星大学麦迪逊分校担任统计学助理教授,专门研究深度学习和机器学习。他让关于 AI 和深度学习相关的内容更加容易获得,并教人们如何大规模利用这些技术。此外,Sebastian 热衷于开源软件,十多年来一直是一个充满热情的开源贡献者。他提出的方法现已成功应用于

文章图片
#语言模型#人工智能#自然语言处理 +1
什么是大模型?(超详细)大模型从入门到精通,看这一篇就够了

大模型是指具有数千万甚至数亿参数的深度学习模型。近年来,随着计算机技术和大数据的快速发展,深度学习在各个领域取得了显著的成果,如自然语言处理,图片生成,工业数字化等。为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了大模型这一概念。大模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型采

文章图片
#人工智能#数据库#搜索引擎 +1
使用 OpenLLM 构建和部署大模型应用

BentoML专注于提供机器学习基础设施。核心产品是与公司同名的开源框架BentoML。公司总部位于旧金山湾区,在国内也有众多远程工作的同事。通过不断努力,公司获得了众多客户的认可。

文章图片
#人工智能#自然语言处理#语言模型 +2
大模型学习路线——大模型基座 & 大模型部署

LLM基座官方文档如下(科学上网):Llama:ChatGLMBaichuanQwen(文末附安装包)1.1. 查看服务器GPU显存及占用1.2. 模型部署所需显存查询2.1. 本地部署2.2 网页可视化(下载并部署gradio)从这个链接里:https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/scripts/inference/grad

文章图片
#学习#数据库#人工智能 +2
企业如何构建一个领域大模型?

领域大模型已成为大模型必然的发展趋势,基于领域数据的标注和模型微调将成为企业的重中之重。目前公认的模式是由大公司提供基础大模型,细分领域的公司选择一个符合自己业务需求的基础大模型,在此基础上进行微调,精确解决领域任务。领域大模型的落地步骤可拆分为。企业需要建立指标体系进行基座选型,例如准确率、召回率、安全性、可解释性、稳定性、成本等,通过量化的指标评估对比多个大模型。以参数量过大会导致精调和部署成

文章图片
#人工智能#语言模型#自然语言处理 +1
终于有人把大模型技术总结清楚了!

如果你是零基础小白,想快速入门大模型是可以考虑的。一方面是学习时间相对较短,学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

文章图片
#语言模型#人工智能#深度学习 +2
初学者如何对大模型进行微调?微调数据集需要多少?

现在大模型微调的门槛越来越低,市场上有大量开源微调框架。只要你会部署、有机器就能出个结果,赶紧动手玩起来吧!读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用如果你是零基础小白,想快速入门大模型是可以考虑的。一方面是学习时间相对较短,学习内容更全面更集中。二方面是可以根据这些资料规划好学习计划和方向。包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学

文章图片
#深度学习#人工智能#机器学习 +3
超详细!超全,大模型面经指南(附答案)

LLM(Large Language Model,大型语言模型)是指基于大规模数据和参数量的语言模型。Transformer架构:大模型LLM常使用Transformer架构,它是一种基于自注意力机制的序列模型。Transformer架构由多个编码器层和解码器层组成,每个层都包含多头自注意力机制和前馈神经网络。这种架构可以捕捉长距离的依赖关系和语言结构,适用于处理大规模语言数据。自注意力机制(Se

文章图片
#人工智能#深度学习#数据库 +1
数据标注:大模型合规的第一块多米诺骨牌

‍大模型(例如GPT-4o)是通过大量数据训练出来的,具有处理和生成自然语言的能力。而为了让大模型能够理解和生成准确的内容,就需要对训练数据进行精细的标注,这个过程被称为数据标注。也是得益于大量标注的文本数据,GPT-4o可以准确解读人类语言。大型语言模型 (LLM) 的数据标注(Data Annotation),就是是指标记、分类和标记数据的过程,从而促进机器学习算法理解和生成准确的预测。01

文章图片
#人工智能#语言模型#自然语言处理
    共 288 条
  • 1
  • 2
  • 3
  • 29
  • 请选择
OSZAR »