method-agents
http://link.zhihu.com/?target=https%3A//github.com/sxontheway/Keep-Learning/blob/master/Research/Federated_Learning.md
paper[2405.02957] Agent Hospital: A Simulacrum of Hospital with Evolvable Medical Agents (arxiv.org)
质量和效率,隐私。医疗记录库、经验库。
agent hostpital. Pdf
在本文中,我们介绍了一个名为Agent医院的医院模拟,它模拟了治疗疾病的整个过程。所有患者、护士和医生都是由大型语言模型(LLM)驱动的自治代理。我们的中心目标是让医生代理学习如何在模拟中治疗疾病。为此,我们提出了一种名为MedAgent-Zero的方法。由于模拟可以基于知识库和LLM模拟疾病的发作和进展,医生代理可以不断从成功和不成功的案例中积累经验。模拟实验表明,医生代理在各种任务中的治疗性能不断提高。更有趣的是,医生代理在Agent医院获得的知识适用于现实世界的医疗 ...
method-few shot learning
http://link.zhihu.com/?target=https%3A//github.com/sxontheway/Keep-Learning/blob/master/Research/Few_Sample_Learning.md
method-自监督
自监督学习 | (1) Self-supervised Learning 入门_carl 等人[]通过名为拼图的方式来构造辅助任务, 通过预测图像各个图像块的相对位置-CSDN 博客
AI论文速读 |2024[TPAMI]【综述】自监督学习在时间序列分析的分类、进展与展望 (qq.com)
[[method-自监督-对比学习]]
自监督学习的方法主要可以分为 3 类:
基于上下文(Context based)
基于时序(Temporal Based)
基于对比(Contrastive Based)[[method-自监督-对比学习]]
,一个样本的多个模态为正样本,其他样本的模态为负样本。
基于生成的(Generative-based)、基于对比的(Contrastive-based)和基于对抗的(Adversarial-based)。通过这些步骤,论文旨在为时间序列数据分析中的自监督学习提供一个全面的框架,并推动该领域的研究进展。
3种生成式自监督
自回归预测(Autoregressive-based forecasting):使用过去的时间序列数据来预测未 ...
method-自监督-对比学习
CCF A类会议或期刊—-近两年对比学习相关论文_深度学习_Thingcor-华为云开发者联盟 (csdn.net)
对比式无监督预训练(Contrastive Pre-training)_对比预训练-CSDN博客
预训练领域有两种流行的方法,基于对比学习和基于掩码重建
对比学习 对比式无监督预训练(Contrastive Pre-training)_对比预训练-CSDN博客
互信息最大化:使用全局上下文和局部特征作为不同的视图,以经典工作Deep InfoMax为例,通俗地说,我们根据输入图像的这个”狗鼻子“就要知道,输入图片是一幅狗的图片,而不是负样本猫的。输入图片经过卷积网络得到M x M大小的特征图,拉成一个一维的特征,互信息最大化要使得同一张图片的任意局部特征(特征图上任意一个位置的特征)与全局特征之间的距离尽可能近,从而能“一叶知秋”。
相对位置预测:相对位置预测使用不同的局部组件作为不同的视图。BERT除了引入了Masked Language Modeling任务,还引入了句子级别的对比任务Next Sentence Prediction (NSP),来提高句子 ...
model-时序模型
近期值得关注的4个时序大模型研究 (qq.com)ICML 2024 时间序列(Time Series)和时空数据(Spatial-Temporal)论文总结【抢先版】 (qq.com)https://github.com/thuml/Time-Series-Library清华大学最新深度时序模型综述+5k star开源代码! (qq.com)
datamonday/Time-Series-Analysis-Tutorial: 时间序列分析教程 (github.com)
idea
时频。(单模态。) - 一致性对时间序列进行自监督对比预训练自监督 时序 2022-TFC-Self-Supervised Contrastive Pre-Training For Time Series via Time-Frequency Consistency one to one or one to many——利用 earset 的信息预训练。然后迁移到实验室耳机的数据集、实验室眼镜的数据集、眼镜耳机的其他数据集,说明可跨设备识别表情姿态等。——做一个 all wearble, ...
model-小语言模型
AI届的新宠:小语言模型(SLM)? (qq.com)大模型一定就比小模型好?谷歌的这项研究说不一定 (qq.com)
code
Data[[数据处理]][[数据增强]][[数据、验证]]
ModelTransformerbojone/bert4keras: keras implement of transformers for humans (github.com)
网络
Pytorch nn.Linear()的基本用法与原理详解及全连接层简介_nn.linear()作用-CSDN博客
全连接层 Fully Connected Layer 一般位于整个卷积神经网络的最后,负责将卷积输出的二维特征图转化成一维的一个向量,由此实现了端到端的学习过程(即:输入一张图像或一段语音,输出一个向量或信息)。
全连接层的主要作用就是将前层(卷积、池化等层)计算得到的特征空间映射样本标记空间。简单的说就是将特征表示整合成一个值,其优点在于减少特征位置对于分类结果的影响,提高了整个网络的鲁棒性。
method-多模态
太全了!多模态深度学习的综述! (qq.com)IEEE. Trans. Pattern. Anal. Mach. Intell. |从视觉到文本多模态数据融合综述 (qq.com)
模态人工智能 - 一站式解读多模态——Transformer、Embedding、主流模型与通用任务实战(上) - 百度飞桨 - SegmentFault 思否上述的大多多模态模型结构可以总结为五个主要关键组件,具体如下图所示:
模态编码器(Modality Encoder, ME):图像编码器(Image Encoder)、视频编码器(Video Encoder)、音频编码器(Audio Encoder)
输入投影器(Input Projector, IP):线性投影器(Linear Projector)、多层感知器(Multi-Layer Perceptron, MLP)、交叉注意力(Cross-Attention)、Q-Former等
大模型基座(LLM Backbone):ChatGLM、LLaMA、Qwen、Vicuna等
输出投影器(Output Projector, OP):Tiny ...
task-具身智能
具身智能是一种涉及将智能功能嵌入到物理实体中的概念。它结合了人工智能(AI)和物联网(IoT)技术,使物体能够感知环境、理解数据并做出反应,以实现更智能、更灵活的功能。具身智能的核心思想是赋予物体智能,使其能够与用户、其他设备或环境进行交互和协作,而不仅仅是被动地执行预先编程的功能。
AI 智能体上,这种智能体不仅能接收来自数据集的静态图像,还能在三维虚拟世界的模拟环境中四处移动,并与周围环境交互。 - 具身 AI 的工作包括任何可以探测和改变自身环境的智能体
数据处理
迄今为止最细致的DataSet和Dataloader加载步骤(肝) - 知乎 (zhihu.com)