机器学习杂货铺总店


  • Home

  • About

  • Tags

  • Categories

  • Archives

  • Search

Kosmos-1, 通用接口架构下的多模态大语言模型

Posted on 2024-06-08 | In 多模态大模型
Words count in article: 3.3k 字 | Reading time ≈ 12 分钟

在大规模语言模型(Large Language Model, LLM)看似要带来新一番人工智能变革浪潮之际,越来越多尝试以LLM作为通用接口去融入各种任务的工作,之前我们在[2]中曾经对其进行过简单介绍,比如尝试用LLM去控制浏览器、搜索引擎甚至是机械臂等。本文介绍的工作kosmos-1是LLM与多模态信号结合的一种尝试,对笔者有所启发,在此给大家进行推荐。

Read more »

【论文极速读】 指令微调BLIP, 一种对指令微调敏感的Q-Former设计

Posted on 2024-06-08 | In 多模态大模型
Words count in article: 2.7k 字 | Reading time ≈ 10 分钟

之前笔者在[1]中曾经介绍过BLIP2,其采用Q-Former的方式融合了多模态视觉信息和LLM,本文作者想要简单介绍一个在BLIP2的基础上进一步加强了图文指令微调能力的工作——InstructBLIP,希望对诸位读者有所帮助。

Read more »

【论文极速读】DITTO, 引入复读负样本,一种打破LLM复读问题的方法

Posted on 2024-06-08 | In 大语言模型
Words count in article: 2.9k 字 | Reading time ≈ 10 分钟

最近工作里面遇到了LLM复读的问题,去翻了下论文,看到有一篇尝试通过引入负样本解决复读问题的工作,有所启发,在此简单介绍下,希望对大家有所帮助

Read more »

【论文极速读】 LLava, 指令跟随的多模态大语言模型

Posted on 2024-06-08 | In 多模态大模型
Words count in article: 2.3k 字 | Reading time ≈ 8 分钟

如何将已预训练好的大规模语言模型(LLM)和多模态模型(如CLIP)进行融合,形成一个多模态大语言模型(MLLM)是目前很火热的研究课题。本文将要介绍的LLava是一个经典的工作,其采用了指令微调的方式对MLLM进行训练,笔者在此笔记,希望对诸位读者有所帮助

Read more »

给自己Linux搞个『回收站』,防止文件误删除

Posted on 2024-06-08 | In linux使用
Words count in article: 424 字 | Reading time ≈ 2 分钟

担心在linux中疯狂输出的时候误删文件?也许你需要回收站了

Read more »

视频检索中的模态均衡方法

Posted on 2023-12-07 | In 多模态模型
Words count in article: 1.3k 字 | Reading time ≈ 4 分钟

传统的视频搜索系统相关性部分主要以文本匹配为基础手段,在其中引入多模态向量容易收到『模态不均衡』的问题...

Read more »

Prompt Tuning——一种高效的LLM模型下游任务适配方式

Posted on 2023-09-28 | In 多模态模型
Words count in article: 2k 字 | Reading time ≈ 7 分钟

Prompt Tuning是一种PEFT方法(Parameter-Efficient FineTune),旨在以高效的方式对LLM模型进行下游任务适配...

Read more »

【论文极速读】 MLP-Mixer 一种全连接的视觉网络架构

Posted on 2023-03-25 | In 视觉底座模型
Words count in article: 1.4k 字 | Reading time ≈ 5 分钟

全连接为王?...

Read more »

【论文极速读】将Transformer用在图片上:Vision Transformer论文杂谈

Posted on 2023-03-25 | In 视觉底座模型
Words count in article: 2.7k 字 | Reading time ≈ 9 分钟

Transformer自提出以来在NLP领域取得了诸多突破,而自然而然有工作在考虑如何在图片等视觉媒体上应用Transformer,本文介绍Vision Transformer (ViT)模型,并且作为笔记记录了一些笔者的读后感...

Read more »

【论文极速读】 大规模语言模型中的能力“涌现”现象

Posted on 2023-03-25 | In 大规模语言模型
Words count in article: 2.3k 字 | Reading time ≈ 8 分钟

最近chatGPT、GPT-4火爆了全网,笔者觉得大规模语言模型(Large Language Model, LLM)可能是未来人工智能发展的方向,因此最近也在恶补相关的论文。本次分享一个经典的工作,该工作介绍了LLM中的一种独特模型属性——“能力涌现”,而这个能力可以说是chatGPT、GPT-4等对话模型的基石...

Read more »
上一页1…345…13下一页

126 posts
40 categories
226 tags
RSS
GitHub E-Mail StackOverflow
© 2026 FesianXu
该站点文章共424.3k字,欢迎光临~