logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Keras深度学习框架第十讲:自定义保存和序列化

本文介绍了自定义模型保存和加载的方法。save_own_variables和load_own_variables实现自定义状态的保存与加载,save_assets和load_assets处理额外信息的存储和恢复。get_build_config和build_from_config保存和恢复模型结构,而get_compile_config和compile_from_config(虽非标准API)概念

文章图片
#深度学习#keras#人工智能
【机器学习】基于图注意力网络(GAT)的Cora数据集论文主题预测

GAT模型是图神经网络的重要分支,通过引入注意力机制来捕捉图中节点间的复杂关系。实验表明,GAT在节点分类任务中取得了显著效果。未来,通过调整模型参数、优化预处理步骤和引入正则化技术,GAT模型的性能有望进一步提升。其高度的灵活性和可扩展性使其适用于各种图相关任务。随着图神经网络研究的深入,GAT模型将在处理复杂图数据方面展现出更广阔的应用前景。

文章图片
#机器学习#人工智能#神经网络
Keras深度学习框架第二十四讲:KerasNLP概述

Keras是一个高级神经网络API,用Python编写,可运行在TensorFlow、CNTK或Theano之上。其设计理念强调简单、快速实验和模块化,简化了深度学习模型的构建过程。NLP(自然语言处理)是AI的一个分支,旨在让计算机理解和处理人类语言,应用于文本分类、情感分析等多个领域。虽然Keras不直接为NLP提供特定功能,但用户可以利用其序列模型或函数式API构建适用于NLP的神经网络,如

文章图片
#深度学习#keras#人工智能
【机器学习】Transformer框架理论详解和代码实现

本文深入探讨了Transformer模型及其在自然语言处理(NLP)和其他领域的应用。自2017年Vaswani等人提出以来,Transformer模型凭借其自注意力机制,在多个NLP任务上取得了突破性进展。文章首先介绍了Transformer模型的背景和开发动机,随后详细阐述了模型的结构和工作原理,包括多头注意力、位置编码以及学习率预热等关键技术。

文章图片
#机器学习#transformer#人工智能
开源大模型与闭源大模型到底谁更强?

开源大模型以高度社区参与、共享协作和全球化协作推动技术创新,但面临商业利益和数据安全挑战。闭源大模型则注重商业利益保护和数据安全隐私,提供定制化服务,但社区参与度低、反馈有限。在选择大模型时,需权衡业务需求、数据安全与社区参与度。开源模型鼓励创新,闭源模型保障安全与定制。两者各有优势,关键在于如何结合业务需求做出最佳决策,共同推动人工智能领域的发展。

文章图片
#开源
【机器学习】基于图注意力网络(GAT)的Cora数据集论文主题预测

GAT模型是图神经网络的重要分支,通过引入注意力机制来捕捉图中节点间的复杂关系。实验表明,GAT在节点分类任务中取得了显著效果。未来,通过调整模型参数、优化预处理步骤和引入正则化技术,GAT模型的性能有望进一步提升。其高度的灵活性和可扩展性使其适用于各种图相关任务。随着图神经网络研究的深入,GAT模型将在处理复杂图数据方面展现出更广阔的应用前景。

文章图片
#机器学习#人工智能#神经网络
Keras深度学习框架第十六讲:使用Keras 3进行分布式训练

Keras分布式API中的ModelParallel类和LayoutMap提供了用于在多个设备上分发模型权重和激活张量的机制,支持大型模型的水平扩展。ModelParallel允许在DeviceMesh上的所有设备上分散模型权重,而LayoutMap则允许用户从全局角度为任何权重和中间张量指定TensorLayout。通过调整网格的形状,可以轻松地在数据并行和模型并行之间调整计算,而无需修改其他代

文章图片
#深度学习#keras#分布式
【机器学习】计算机图形和深度学习模型NeRF详解(2)

本文深入探讨了Neural Radiance Fields(NeRF)技术,一种能从2D图像重建3D场景的突破性方法。文章详细介绍了NeRF的理论基础、数据输入流程、射线生成、采样点设置、MLP架构以及体积渲染技术。通过光度损失函数优化模型,实现多视角一致性。附带的代码示例和实践练习进一步帮助读者理解并应用NeRF技术。作为系列教程的一部分,本文为希望掌握NeRF的读者提供了宝贵的资源和指导。

文章图片
#机器学习#深度学习#人工智能
到底了
OSZAR »