Gradio 教程,主要包括 1. Gradio简介 2. 环境搭建 3. 创建第一个Gradio界面 4. Gradio高级应用 5. 实战案例 6. 部署与分享 7. 常见问题与解决方案。
解读 NLP经典之作 — Bert:BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,由Google在2018年提出。它是一种基于Transformer的模型,可以用于自然语言处理(NLP)任务,如文本分类、命名实体识别、问答系统等。主要包括 1. Language Model Embedding,2. Bert 模型解读,3. Bert fine-tuning,4. Bert 代码实现等方面。
Andrej Karpathy 的 Let’s build the GPT Tokenizer。 手把手构建一个GPT Tokenizer(分词器)。关于Tokenizer的Why和How,详见下文。
sora技术文档,主要包括视频生成模型作为世界模拟器,1. 将视觉数据转换为统一表示方法,2. 模型的训练,3. 模型评估。Sora 和之前 Runway在架构上的区别。
Andrej Karpathy 的 nanoGPT lecture demo 详解。主要包括学习资料、总结输出、为什么学 nanoGPT、详解 nanoGPT 四个部分。
This nanoGPT-lecture code git, including Andrej Karpathy's nanoGPT, ng-vedio-lecture, gpt_dev.ipynb and my learning notes. Welcome to like and follow
[ICLR 2024] SWE-Bench: Can Language Models Resolve Real-world Github Issues?
Paper