QMMMS's Blog

LangChain 🦜️🔗 基础概念与实战

查看 jupyter notebook 通常情况下,广泛使用的大模型是在大量公开可用的数据上进行预训练的,而构建在LLM之上的应用程序通常需要使用私有或领域特定的数据来增强这些模型。因此, LangChain的出现旨在为开发这类应用程序提供一个框架和支持。这个框架的目标是协助开 发者更容易地构建应用程序,利用LLM技术与自然语言进行交互。 请设想下面这几种场景:你拥有几本电子书,...

Adversarial Incomplete Multi-view Clustering

读论文时间! 多模态模型:AIMC 一份非官方代码实现,由于其实现的代码由VIGAN改写而来,可以参考VIGAN笔记 一、聚类模块的对齐 多模态对齐是指找到两种或多种模态的instances中sub-components之间的对应关系,例如:给定一张图片和一个描述,找到词或者短语对应图片中的区域;另一个例子是给定一个电影,将它和字幕或者书中的章节对齐。 多模态对齐分成两类...

VIGAN:Missing View Imputation with Generative Adversarial Networks

读论文时间! 多模态模型:VIGAN,官方代码 前置知识:AE、DAE、GAN、CycleGAN 一、简介 在如今许多领域中,数据由于来源的多样性。往往会造成某些数据缺失的问题,本文是利用自编码和生成对抗网络对缺失数据进行补全,主要处理的是多视角和多模态的缺失数据的问题,称为:解决缺失视角问题的生成对抗网络的填充方法。 二、所用的的一些方法 用到的有: 利用自编...

JSAI Competition2023-sophgo

赛题 可以看作是 Kaggle 比赛的一个复刻 算能杯——面向Stable Diffusion的图像提示语优化专项赛的目标为创建一个模型来预测给定生成图像的文本提示。参赛选手将在包含Stable Diffusion 2.0生成的各种(提示、图像)对的数据集上进行预测,通过了解潜在存在的提示、图像之间关系的可逆性。参赛选手通过构建一个模型来预测给定生成图像的文本提示。并把这个文本提...

训练探测器正确降落在月球🌕上

跑模型时间! 来自HuggingFace 🤗 强化学习课程 我们将训练我们智能体(月球着陆器)正确登陆月球。为此,智能体需要学习调整其速度和位置(水平、垂直和角度)以正确着陆。 每一步: 我们的代理从 环境中接收状态(S0) —— 我们接收游戏的第一帧(环境)。 根据该 状态 (S0), 代理采取 行动 (A0) —— 我们的代理将向右移动。 环境转换到 新状...

LLM有监督微调概述

有监督微调(Supervised Finetuning, SFT)又称指令微调(Instruction Tuning),是指在已经训练好的语言模型的基础上,通过使用有标注的特定任务数据进行进一步的微调,从而使得模型具备 遵循指令的能力。 经过海量数据预训练后的语言模型虽然具备了大量的“知识”,但是由于其训练时的目标仅是进行下一个词的预测,此时的模型还不能够理解并遵循人类自然语言形式的指令。...

LLM分布式训练概述

没钱也没环境自己做计算集群分布式训练实验,看看别人怎么做吧。 分布式训练(Distributed Training)是指将机器学习或深度学习模型训练任务分解成多个子任务,并在多个计算设备上并行地进行训练。 促使人们设计分布式训练系统的一个最重要的原因就是单个计算设备的算力已经不足以支撑 模型训练。 大语言模型参数量和所使用的数据量都非常巨大,因此都采用了分布式训练架构完成训练: ...