Skip to content

28H2O2/ai-fdu.github.io

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

24 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Artificial Intelligence A (2024 Spring)

课程实践

  • PJ1 基于LR、SVM的蛋白质结构分类 [3.22 - 4.7]
  • PJ2 基于CNN的图像分类 [4.12 - 4.26]
  • PJ3 人工智能算法挑战赛 [4.26 - 6.2]

Paper Recommendation

LM Recommendation

  • 科研团队: Devlin, Chang, Lee, and Toutanova

  • 相关研究: 掩码语言模型(MLM)、双向变压器、编码器架构

  • 研究概要: 这篇论文介绍了BERT模型,其通过掩码语言模型和双向变压器的预训练,显著提升了自然语言理解任务的性能。

  • 科研团队: Radford and Narasimhan

  • 相关研究: 解码器架构、自回归模型、下一个单词预测、GPT

  • 研究概要: 该研究提出了GPT模型,通过生成预训练方法改善语言理解能力,使用自回归解码器进行下一个单词预测。

  • 科研团队: Lewis, Liu, Goyal, Ghazvininejad, Mohamed, Levy, Stoyanov, and Zettlemoyer

  • 相关研究: 编码器-解码器架构、去噪预训练、自然语言生成

  • 研究概要: BART模型通过去噪预训练和序列到序列架构,在自然语言生成、翻译和理解任务中表现优异。

  • 科研团队: Yang, Jin, Tang, Han, Feng, Jiang, Yin, and Hu

  • 相关研究: LLM架构演变、预训练和微调数据、效率提升

  • 研究概要: 这篇综述文章探讨了大型语言模型(LLM)的架构演变、预训练和微调方法,以及如何提升其效率。

  • 科研团队: Dao, Fu, Ermon, Rudra, and Ré

  • 相关研究: 快速注意力机制、内存效率、IO感知

  • 研究概要: FlashAttention提出了一种快速且内存高效的注意力机制,通过IO感知优化性能。

  • 科研团队: Geiping and Goldstein

  • 相关研究: 掩码语言模型、单GPU训练、训练效率

  • 研究概要: 该研究展示了如何在单个GPU上使用一天时间训练语言模型,从而显著提高训练效率。

  • 科研团队: Hu, Shen, Wallis, Allen-Zhu, Li, L Wang, S Wang, and Chen

  • 相关研究: 参数效率、微调、低秩适应

  • 研究概要: LoRA模型通过低秩适应方法,提高了大型语言模型的参数效率和微调效果。

  • 科研团队: Lialin, Deshpande, and Rumshisky

  • 相关研究: 参数高效微调、前缀调整、适配器

  • 研究概要: 本文介绍了参数高效微调方法,包括前缀调整和适配器技术,以优化大型语言模型的性能。

  • 科研团队: Hoffmann, Borgeaud, Mensch, Buchatskaya, Cai, Rutherford, de Las Casas, Hendricks, Welbl, Clark, Hennigan, Noland, Millican, van den Driessche, Damoc, Guy, Osindero, Simonyan, Elsen, Rae, Vinyals, and Sifre

  • 相关研究: Chinchilla模型、生成任务、线性缩放定律

  • 研究概要: 该研究提出了Chinchilla模型,基于计算最优的原则,通过线性缩放定律优化生成任务的性能。

  • 科研团队: Biderman, Schoelkopf, Anthony, Bradley, O'Brien, Hallahan, Khan, Purohit, Prashanth, Raff, Skowron, Sutawika, and van der Wal

  • 相关研究: LLM套件、训练过程分析、架构改进

  • 研究概要: Pythia是一套用于分析大型语言模型在训练和扩展过程中的工具,帮助研究者改进模型架构。

  • 科研团队: Ouyang, Wu, Jiang, Almeida, Wainwright, Mishkin, Zhang, Agarwal, Slama, Ray, Schulman, Hilton, Kelton, Miller, Simens, Askell, Welinder, Christiano, Leike, and Lowe

  • 相关研究: 人类反馈、强化学习、InstructGPT

  • 研究概要: 该研究通过人类反馈和强化学习训练语言模型,使其更好地遵循指令,提出了InstructGPT模型。

  • 科研团队: Yuntao, Saurav, Sandipan, Amanda, Jackson, Jones, Chen, Anna, Mirhoseini, McKinnon, Chen, Olsson, Olah, Hernandez, Drain, Ganguli, Li, Tran-Johnson, Perez, Kerr, Mueller, Ladish, Landau, Ndousse, Lukosuite, Lovitt, Sellitto, Elhage, Schiefer, Mercado, DasSarma, Lasenby, Larson, Ringer, Johnston, Kravec, El Showk, Fort, Lanham, Telleen-Lawton, Conerly, Henighan, Hume, Bowman, Hatfield-Dodds, Mann, Amodei, Joseph, McCandlish, Brown, Kaplan

  • 相关研究: 人工智能对齐、无害系统、自我训练机制

  • 研究概要: Constitutional AI通过人工智能反馈和自我训练机制,确保AI系统的无害性和对齐性。

  • 科研团队: Wang, Kordi, Mishra, Liu, Smith, Khashabi, and Hajishirzi

  • 相关研究: 自我指导、指令微调、LLM对齐

  • 研究概要: Self-Instruct方法通过自我生成指令对语言模型进行微调,提升模型的对齐能力。

  • 科研团队: Ouyang, Wu, Jiang, Almeida, Wainwright, Mishkin, Zhang, Agarwal, Slama, Ray, Schulman, Hilton, Kelton, Miller, Simens, Askell, Welinder, Christiano, Leike, Lowe

  • 相关研究: 指令对齐、人类反馈、InstructGPT

  • 研究概要: InstructGPT通过与人类意图对齐和人类反馈训练,使模型更好地理解和执行指令。

  • 科研团队: Zhou, Qiu, Zhou, Zhang, Hsiao, Chung, Le, and Devlin

  • 相关研究: 简化对齐过程、模型效率

  • 研究概要: LIMA

研究了简化对齐过程的方法,提高了模型的效率和效果。

  • 科研团队: Peng, Yan, and Chen

  • 相关研究: RNN和Transformer结合、性能优化

  • 研究概要: RWKV模型结合了RNN和Transformer的优点,优化了模型性能。

  • 科研团队: Yuan, Chan, and Wang

  • 相关研究: 残差连接、模型架构创新

  • 研究概要: ResiDual通过双重残差连接的创新架构,提升了Transformer模型的性能。

  • 科研团队: Touvron, Lavril, Izacard, Martinet, Lachaux, Lacroix, Roziere, Goyal, Hambro, Azhar, Rodriguez, Joulin, Grave, and Lample

  • 相关研究: 开源语言模型、高效架构

  • 研究概要: LLaMA是一个开源且高效的基础语言模型,旨在提升模型性能和效率。

  • 科研团队: Lee, Xu, Deshpande, Taylor, Jia, and Zhang

  • 相关研究: 记忆力减轻、主动复习

  • 研究概要: MixReview通过主动复习机制,减轻了大型语言模型的记忆负担,提升了模型的泛化能力。

  • 科研团队: Dettmers, Pagnoni, Holtzman, and Zettlemoyer

  • 相关研究: 量化、低秩适应、高效微调

  • 研究概要: Q-LoRA提出了一种高效的量化语言模型微调方法,通过低秩适应优化模型性能。

AI4S Recommendation

AI+ 生物医药

AI+ 医疗健康

  • 科研团队: 伦敦大学学院和 Moorfields 眼科医院的在读博士周玉昆等人

  • 相关研究: 自监督学习、MEH-MIDAS 数据集、EyePACS 数据集、SL-ImageNet、SSL-ImageNet、SSL-Retinal。RETFound 模型预测 4 种疾病的性能均超越对比模型

  • 发布期刊: Nature, 2023.08

  • 论文链接: A foundation model for generalizable disease detection from retinal images

AI+ 材料化学

  • 科研团队: 谷歌 DeepMind 研究团队

  • 相关研究: GNoME 数据库、GNoME、SOTA GNN 模型、深度学习、Materials Project、OQMD、WBM、ICSD

  • 发布期刊: Nature, 2023.11

  • 论文链接: Scaling deep learning for materials discovery

AI+ 动植物科学

  • 主要内容: AI 在同源搜索、多重比对及系统发育构建、基因组序列分析、基因发现等生物学领域中,都有丰富的应用案例。作为一名生物学研究人员,能熟练地将机器学习工具整合到数据分析中,必将加速科学发现、提升科研效率。

AI+ 农林畜牧业

  • 科研团队: 以色列特拉维夫大学的研究人员

  • 相关研究: 机器学习模型、SVM、Basic、MFCC、Scattering network、神经网络模型、留一法交叉验证。识别准确率高达 99.7%、4-6 天时番茄尖叫声最大

  • 发布期刊: Cell,2023.03

  • 论文链接: Sounds emitted by plants under stress are airborne and informative

AI+ 气象研究

  • 主要内容: 数值天气预报是天气预报的主流方法。它通过数值积分,对地球系统的状态进行逐网格的求解,是一个演绎推理的过程。 2022 年以来,天气预报领域的机器学习模型取得了一系列突破,部分成果可以与欧洲中期天气预报中心的高精度预测匹敌。

AI+ 天文学

AI+ 能源环境

AI+ 自然灾害

  • 科研团队: 成都理工大学刘瑞研究团队

  • 相关研究: Sentinel-2 多光谱数据、NASADEM 数据、滑坡数据、GLFE、CNN、DSSA、DSC、DTL、Transformer、深度迁移学习。交并比提高了 1.91% - 24.42%,F1 提高了 1.26% - 18.54%

  • 发布期刊: International Journal of Applied Earth Observation and Geoinformation, 2024.01

  • 论文链接: A deep learning system for predicting time to progression of diabetic retinopathy

其他

  • 科研团队: 谷歌 DeepMind 与利物浦足球俱乐部

  • 相关研究: Geometric deep learning、GNN、predictive model、generative model。射球机会提升 13%

  • 发布期刊: Nature, 2024.03

  • 论文链接: TacticAI: an AI assistant for football tactics

  • 科研团队: 清华大学电子工程系城市科学与计算研究中心、清华大学深圳国际研究生院深圳市泛在数据赋能重点实验室、鹏城实验室的研究人员

  • 相关研究: GC 数据集、UCY 数据集、条件去噪扩散模型、SPDiff、GN、EGCL、LSTM、多帧推演训练算法。5% 训练数据量即可达到最优性能

  • 发布期刊: Nature, 2024.02

  • 论文链接: Social Physics Informed Diffusion Model for Crowd Simulation

  • 科研团队: 英伟达研究团队

  • 相关研究: 领域自适应技术、NVIDIA NeMo、domain-adapted retrieval models、RAG、supervised fine-tuning with domain-specific instructions、DAPT、SFT、Tevatron、LLM

  • 发布期刊: Journals & Magazines, 2024.03

  • 论文链接: ChipNeMo: Domain-Adapted LLMs for Chip Design

  • 科研团队: 清华大学李勇研究团队

  • 相关研究: 深度强化学习、human–artificial intelligence collaborative 框架、城市规划模型、策略网络、价值网络、GNN。在服务和生态指标上击败了 8 名专业人类规划师

  • 发布期刊: Nature Computational Science, 2023.09

  • 论文链接: Spatial planning of urban communities via deep reinforcement learning

  • 科研团队: DeepMind 和威尼斯福斯卡里大学的研究人员

  • 相关研究: I.PHI 数据集、Ithaca 模型、Kullback-Leibler 散度、交叉熵损失函数。文本修复工作的准确率达到 62%,时间归因误差在 30 年内,地域归因准确率达到 71%

  • 发布期刊: Nature, 2020.03

  • 论文链接: Restoring and attributing ancient texts using deep neural networks

For more, reach hyperai/awesome-ai4s.

About

人工智能A-2024

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 72.6%
  • Jupyter Notebook 27.4%