毫端蕴秀临霜写,口角噙香对月吟
Home
Login
Pages
Introduction
My Skills
My Achievements
My Git
My Team
My Blog
My CV
Projects
Papers
Talks
Patents
Competitions
Teaching
Open Source
Collaborations
Multimedia
Timeline
Statistics
Resources
Interests
Dashboard
Contacts
Source Page
Home
Pages
Open Source
Source Page
Compiler
AI Compiler
HPC
ML
OS
Programming
Theory
Cluster
IC
Tools
Courses
Books
Update Weekly
🤗
By YangZi
🖥︎Websites
PLCT Lab
LLVM官方中文文档
【ISA】Armv8/Armv9架构入门指南
【ISA】RISC-V指令级在线文档速览
🎗︎Communities
Mold Linker
CompilerGym
MuteC
CLSmith
Srciror
OpenCL
Protobuf
CLDrive
[SysY]编译基础实验(北航)
毕昇编译器LLVM
🧰Tools
SPEC2006
SPEC2017
MediaBench II
CoreMark
MiBench
LMBench
UnixBench
📽︎Videos
[合辑]从零开始学 LLVM
[合辑·Zomi]
传统编译器介绍
🗂︎Articles
[官方]LLVM Tutorial
[知乎]LLVM 每日谈
[知乎]LLVM编译器之Pass添加
[知乎]LLVM Loop
[知乎]GPU AtomicOptimizer In LLVM
[知乎][合辑]LLVM入门
[知乎]深入浅出 LLVM之 Value 、User 、Use 源码解析
[知乎]LLVM源码阅读之 BasicBlock 遍历
[知乎]Introduce MemorySSA in LLVM
[知乎]深入浅出 LLVM之 DenseMap 源码解析
[知乎]基于LLVM的函数运行时计时器简单PASS实现
[知乎]超详细的工业级编译器源码分析
[知乎]写给入门者的LLVM介绍
[知乎]LLVM Techniques 读书笔记
[知乎][合辑]LLVM编译器系列-中端
[知乎]LLVM后端:TableGen简易入门
[CSDN]编译器研究之路:未来50年
Update Weekly
🤗
By YangZi
🖥︎Websites
TVM官方专栏
Apache TVM 中文站
🎗︎Communities
🧰Tools
SPEC2006
📽︎Videos
[合辑]从零开始学 LLVM
人工智能编译器MLIR-官方入门教程讲解
MLIR Toy Tutorial概述
MLIR & python binding简介
[MLIR] 使用MLIR完成一个端到端的编译流程
[合辑]算能TPU-MLIR系列讲解?
陈天奇 机器学习课程
AI-Compiler科普——TVM的使用讲解
TVM流程梳理
TVM-Relay流程梳理
AI编译器后端优化介绍
算子的计算和调度
算子优化的手工方式
算子循环优化
指令和存储优化
Auto Tuning原理
TVM简介
TVM自动调度算法AutoTVM
ANSOR:为深度学习生成高性能张量程序
TVM 编译流程与中间表示分析(一)
TVM 编译流程与中间表示分析(二)
EP17 | TPU-MLIR Introduction :To ONNX Format
Ep18 TPU Memory
Ep19 TPU Memory (2)
Ep20 Add a New Operator
Ep21 fuse prepocess 【AI编译器】
ep1|TPU-MLIR Introduction AI Compiler
TPU-MLIR Ep2 TPU-MLIR Overview
TPU-MLIR Ep3 MLIR Brief Intro
AI框架源码走读:tpu-mlir(一)
AI框架源码走读:tpu-mlir(二)
AI框架源码走读:tpu-mlir(三)
TPU-MLIR线上分享会(一):论文讲解
MegCC 用模型编译的方式实现超轻量端上高性能推理
动态shape深度学习编译器论文分享:DISC
🗂︎Articles
[公众号]What Is MLIR && What Is TVM?
[公众号]TVM Conf 2020 - An Introduction to TVM Part1
[公众号]TVM Conf 2020 - An Introduction to TVM Part2
[公众号]Torch MLIR公开会议翻译视频(自制中英双字完整版)
[公众号]TVM命令行驱动程序 视频教程
[公众号]基于 MLIR 完成对 GEMM 的编译优化 中英视频上,中部分
[公众号]TVM TensorIR 视频讲解(熟肉)
[公众号]TVM 学习指南(个人版)
[公众号]白杨:TVM源语-Compute篇
[公众号]MLSys 15-884: Course Introduction
[知乎]OSDI 2021 PET 论文解读(代码生成相关工作)
[公众号]Buddy-MLIR 项目详解(入门 MLIR 极佳选择)
[公众号]【社区实践】为 TVM 新增 OneFlow 前端
[公众号]【TVM 三代优化巡礼】在X86上将普通的矩阵乘法算子提速90倍
[公众号]【论文解读】基于MLIR生成矩阵乘法的高性能GPU代码,性能持平cuBLAS
[公众号][合辑]
【从零开始学深度学习编译器】
[公众号]ChatGPT和Claude 对比测试(以Review MLIR Codegen代码为例)更新官方ChatGPT的结果
[公众号]GPT4 VS Claude In MLIR
[知乎]OpenAI/Triton MLIR 第零章: 源码编译
[知乎]OpenAI/Triton MLIR 第一章: Triton DSL
[知乎]深度学习编译器之Layerout Transform优化
[知乎]深度学习编译器 TVM 代码串讲【非基础】
[知乎]TVM编译流程与中间表示分析
TVM Overview
TVM - Relay IR计算图可视化【功能型】
TVM - 代码生成流程
TVM/VTA代码生成流程
[知乎]tvm算子优化schedule(一)--CPU篇
[知乎]tvm算子优化schedule(二)--GPU篇
[知乎]TVM Runtime System 概述
TVM PackedFunc实现机制
[知乎]深入理解TVM:Python/C++互调(上)
Round-tripping objects through the FFI
[知乎][合辑]TVM 自底向上
[知乎]深入理解TVM专栏,主要是对部分codebase的解读
[知乎]tvm schedule详细举例
TVM - 代码生成流程
[知乎]Relax: TVM 的下一代图层级 IR
[知乎]TVM之Tensor数据结构解读
[知乎][合辑]TVM之设计模式解读
[知乎]TVM之TIR相关数据结构
[知乎]TVM之tir 转换成llvm ir
[知乎]TVM之graph_runtime
[知乎]TVM之relay.build流程解读
[知乎][合辑:10]
TVM学习
[知乎]TVM TensorIR 浅析
[知乎]TVM图编译器NNVM简单探究
TVM图编译器Relay简单探究
[知乎]基于TensorIR生成mma指令并实现16x16x4矩阵乘
[知乎]基于TVM的PTX Tensor Core汇编代码生成
[知乎]一个tvm(te)实现的cutlass efficient gemm
[知乎]TIR Script CUTLASS Efficient Gemm
[知乎][合辑]TVM系列
[知乎]SparseTIR: TVM的稀疏算子编译抽象
[知乎]Web-LLM:机器学习编译纯浏览器运行大模型
[知乎]MLC-LLM: 在任何设备上编译运行大语言模型
[知乎]TVM和BLIS对GEMM计算/优化方式的对比
[知乎]TVM Tir 到 VTA Simulator 指令仿真的过程
[知乎]【我与TVM二三事 中篇(5)】tvm tensorrt
[知乎]TVM Relax如何支持dynamic shape
[知乎]【我与TVM二三事 后篇(2)】MSC之架构 && MSCGraph
[知乎]《新一代深度学习编译技术变革和展望·陈天奇》
机器学习编译器代码生成相关 MLIR Dialect
编译器与中间表示: LLVM IR, SPIR-V, 以及 MLIR
MLIR Vector Dialect 以及 Patterns
MLIR Linalg Dialect 以及 Patterns
向外借力:Pluto助力MLIR编译器的多面体优化
[合辑]IREE编译流程解析
megcc 开箱评测
[知乎]阿里 BladeDISC 深度学习编译器正式开源
[知乎]全面支持 PyTorch 2.0:BladeDISC 5月~11月新功能发布
[知乎]【GTC 22】通过 PAI-Blade 更方便、更鲁棒地使用 TensorRT
[知乎]LLVM后端:TableGen简易入门
[知乎]MLIR Compiler Components
[知乎]第一篇 MLIR - Getting Started
[知乎]MLIR学习笔记(二)——Dialect定义(二)
[知乎]Glenside : 如何自动发现im2col布局转换?
[知乎]基于Halide自动生成Kernel Fusion & Tiling
[知乎]AKG: 使用post-tiling fusion策略完成无副作用的内存优化
[知乎][教程翻译] Polyhedral Tutorials
[知乎]带宽受限下的DSA后端优化
[知乎]Equality Saturation优化在AI编译器中遇到的挑战
[知乎]DSA后端Compute Schedule与Buffer Schedule
[知乎]ASPLOS,我的初体验
[知乎]读You and Your Research笔记
[知乎]AStitch @ASPLOS 2022
[知乎]RAKE @ASPLOS 2022
[知乎]NASA @ISCA 2021
[知乎]BOLT @MLSys 2022
[知乎]Alpa/Parax @OSDI 2022
[知乎]SIMD^2 ISCA 2022
[知乎]AMOS ISCA 2022
[知乎]PCCS MICRO 2021
[知乎]Planaria@MICRO 2020
Chimera HPCA 2023
在MacBook Pro 2019上优化GEMM
[知乎]OSDI '20 | RAMMER (NNFusion) 如何进一步压榨加速器性能
[知乎]算子调度优化论文分享:Rammer
[知乎][AI编译器] 论文阅读(二)Rammer
[知乎]TorchDynamo 初探:Python ByteCode 的动态修改
[知乎]PyTorch 2.0 Dynamo 字节码详解!自顶向下,由浅入深
[知乎]Paper阅读笔记: Welder: Scheduling Deep Learning Memory Access via Tile-graph
[知乎][Hands-On Polyhedral] C CodeGen
[知乎]DISTAL: 分布式张量代数编译器 (DISTAL: The Distributed Tensor Algebra Compiler)
[知乎]CGO'17 Optimistic Loop Optimization 乐观循环优化
[知乎]经典论文鉴赏之《How to Make a Multiprocessor Computer That Correctly Executes Multiprocess Programs》
[知乎]DSA后端Compute Schedule与Buffer Schedule
[知乎]带宽受限下的DSA后端优化
[知乎]编译优化 - 循环优化
[知乎]详解三大编译器:gcc、llvm 和 clang
[知乎]动态 shape 的挑战与解决现状
[知乎][Hands-On Polyhedral] Schedule Program
[知乎]Tensor Expression DSL总结
陈天奇 MLC课程
[知乎]深度学习编译器学习笔记和实践体会
 [知乎];蓝色的味道
[知乎]深度学习编译器学习笔记和实践体会
[知乎]FFI Navigator: 跨语言调用跳转IDE插件
[知乎]如何Debug TVM的源码
[知乎]GDB调试入门指南
[官方]LLVM Tutorial
Update Weekly
🤗
By YangZi
🖥︎Websites
PLCT Lab
🎗︎Communities
Mold Linker
🧰Tools
SPEC2006
📽︎Videos
[合辑]从零开始学 LLVM
🗂︎Articles
[知乎·专栏]CUDA编程入门及优化
[知乎·专栏]深入浅出GPU优化
[知乎·专栏]CUDA 编程入门
[知乎]【BBuf的CUDA笔记】一,解析OneFlow Element-Wise 算子实现
[知乎]【BBuf的CUDA笔记】二,解析 OneFlow BatchNorm 相关算子实现
[知乎]【BBuf的CUDA笔记】三,reduce优化入门学习笔记
[知乎]【BBuf的CUDA笔记】四,介绍三个高效实用的CUDA算法实现(OneFlow ElementWise模板,FastAtomicAdd模板,OneFlow UpsampleNearest2d模板)
[知乎]【BBuf的CUDA笔记】五,解读 PyTorch index_add 操作涉及的优化技术
[知乎]【BBuf的CUDA笔记】六,总结 FasterTransformer Encoder(BERT) 的cuda相关优化技巧
[知乎]【BBuf的CUDA笔记】七,总结 FasterTransformer Decoder(GPT) 的cuda相关优化技巧
[知乎]【BBuf的CUDA笔记】八,对比学习OneFlow 和 FasterTransformer 的 Softmax Cuda实现
[知乎]【BBuf的CUDA笔记】九,使用newbing(chatgpt)解析oneflow softmax相关的fuse优化
[知乎]CodeGeeX百亿参数大模型的调优笔记:比FasterTransformer更快的解决方案
【BBuf的cuda学习笔记十】Megatron-LM的gradient_accumulation_fusion优化
【BBuf的CUDA笔记】十,Linear Attention的cuda kernel实现解析
【BBuf的CUDA笔记】十一,Linear Attention的cuda kernel实现补档
【BBuf的CUDA笔记】十二,LayerNorm/RMSNorm的重计算实现
【BBuf的CUDA笔记】十三,OpenAI Triton 入门笔记一
【BBuf的CUDA笔记】十四,OpenAI Triton入门笔记二
【BBuf的CUDA笔记】十五,OpenAI Triton入门笔记三 FusedAttention
AI Infra论文阅读之通过打表得到训练大模型的最佳并行配置
AI Infra论文阅读之将流水线并行气泡几乎降到零(附基于Meagtron-LM的ZB-H1开源代码实现解读)
AI Infra论文阅读之LIGHTSEQ(LLM长文本训练的Infra工作)
AI Infra论文阅读之《在LLM训练中减少激活值内存》
系统调优助手,PyTorch Profiler TensorBoard 插件教程
在GPU上加速RWKV6模型的Linear Attention计算
flash-linear-attention的fused_recurrent_rwkv6 Triton实现精读
flash-linear-attention中的Chunkwise并行算法的理解
硬件高效的线性注意力机制Gated Linear Attention论文阅读
GQA,MLA之外的另一种KV Cache压缩方式:动态内存压缩(DMC)
vAttention:用于在没有Paged Attention的情况下Serving LLM
大模型KV Cache节省神器MLA学习笔记(包含推理时的矩阵吸收分析)
CUDA-MODE 课程笔记 第一课: 如何在 PyTorch 中 profile CUDA kernels
CUDA-MODE 第一课课后实战(上)
CUDA-MODE 第一课课后实战(下)
CUDA-MODE 课程笔记 第二课: PMPP 书的第1-3章速通
CUDA-MODE 课程笔记 第四课: PMPP 书的第4-5章笔记
CUDA-MODE课程笔记 第6课: 如何优化PyTorch中的优化器
CUTLASS 2.x & CUTLASS 3.x Intro 学习笔记
CUDA-MODE课程笔记 第7课: Quantization Cuda vs Triton
TRT-LLM中的Quantization GEMM(Ampere Mixed GEMM)CUTLASS 2.x 课程学习笔记
CUDA-MODE课程笔记 第8课: CUDA性能检查清单
TensorRT-LLM 中的 Hopper Mixed GEMM 的 CUTLASS 3.x 实现讲解
通过微基准测试和指令级分析(Instruction-level Analysis)揭秘英伟达Ampere架构
CUDA-MODE课程笔记 第9课: 归约(也对应PMPP的第10章)
【翻译】Accelerating Llama3 FP8 Inference with Triton Kernels
【PyTorch 奇淫技巧】Python Custom Operators翻译
【翻译】教程:在PyTorch中为CUDA库绑定Python接口
【翻译】教程:CUTLASS中的矩阵转置 (使用CuTe把矩阵转置优化到GPU内存带宽上下限)
CUDA-MODE课程笔记 第11课: Sparsity
【PyTorch 奇淫技巧】Async Checkpoint Save
CUDA-MODE课程笔记 第12课,Flash Attention
【翻译】在 GPU 上如何加速 GPTQ Triton 反量化kernel
基于o1-preview解读 Optimized GPTQ INT4 Dequantization Triton Kernel
[知乎]Glenside : 如何自动发现im2col布局转换?
[知乎]基于Halide自动生成Kernel Fusion & Tiling
[知乎]AKG: 使用post-tiling fusion策略完成无副作用的内存优化
[知乎][教程翻译] Polyhedral Tutorials
[知乎]带宽受限下的DSA后端优化
[知乎]Equality Saturation优化在AI编译器中遇到的挑战
[知乎]DSA后端Compute Schedule与Buffer Schedule
[知乎]ASPLOS,我的初体验
[知乎]读You and Your Research笔记
[知乎][阅读笔记] AStitch @ASPLOS 2022
[知乎][阅读笔记] RAKE @ASPLOS 2022
[知乎][阅读笔记] NASA @ISCA 2021
【论文级】[阅读笔记] BOLT @MLSys 2022
[知乎][阅读笔记] Alpa/Parax @OSDI 2022
[知乎][阅读笔记] SIMD^2 ISCA 2022
[知乎]AMOS ISCA 2022
[知乎][阅读笔记] PCCS MICRO 2021
[知乎][阅读笔记] Planaria@MICRO 2020
[知乎]Chimera HPCA 2023
[知乎]在MacBook Pro 2019上优化GEMM
【论文级】OSDI '20 | RAMMER (NNFusion) 如何进一步压榨加速器性能
【论文级】算子调度优化论文分享:Rammer
【论文级】[AI编译器] 论文阅读(二)Rammer
[知乎]TorchDynamo 初探:Python ByteCode 的动态修改
[知乎]PyTorch 2.0 Dynamo 字节码详解!自顶向下,由浅入深
[知乎]Paper阅读笔记: Welder: Scheduling Deep Learning Memory Access via Tile-graph
[知乎][Hands-On Polyhedral] C CodeGen
【论文阅读】DISTAL: 分布式张量代数编译器 (DISTAL: The Distributed Tensor Algebra Compiler)
[知乎]CGO'17 Optimistic Loop Optimization 乐观循环优化
[知乎]经典论文鉴赏之《How to Make a Multiprocessor Computer That Correctly Executes Multiprocess Programs》
[知乎]DSA后端Compute Schedule与Buffer Schedule
[知乎]带宽受限下的DSA后端优化
[知乎]编译优化 - 循环优化
[知乎]详解三大编译器:gcc、llvm 和 clang
[知乎]动态 shape 的挑战与解决现状
[知乎][Hands-On Polyhedral] Schedule Program
[知乎]Tensor Expression DSL总结
Update Weekly
🤗
By YangZi
🖥︎Websites
PLCT Lab
🎗︎Communities
🧰Tools
SPEC2006
📽︎Videos
🗂︎Articles
一文读懂 PyTorch 显存管理机制
一文搞懂 PyTorch 内部机制
PyTorch的hook及其在Grad-CAM中的应用
ML System 领域分享第一季
ML System 领域分享第二季
PyTorch中的contiguous
一文理解 PyTorch 中的 SyncBatchNorm
一文读懂 Pytorch 中的 Tensor View 机制
一文学会 Pytorch 中的 einsum
PyTorch 源码解读之 torch.autograd:梯度计算详解
PyTorch 源码解读之 BN & SyncBN:BN 与 多卡同步 BN 详解
PyTorch 源码解读之 torch.utils.data:解析数据处理全流程
PyTorch 源码解读之 nn.Module:核心网络模块接口详解
PyTorch 源码解读之 DP & DDP:模型并行和分布式训练解析
PyTorch 源码解读之 torch.optim:优化算法接口详解
PyTorch 源码解读之 torch.cuda.amp: 自动混合精度详解
PyTorch 源码解读之 cpp_extension:揭秘 C++/CUDA 算子实现和调用全流程
TorchScript 解读(一):初识 TorchScript
TorchScript 解读(二):Torch jit tracer 实现解析
TorchScript 解读(三):jit 中的 subgraph rewriter
TorchScript 解读(四):Torch jit 中的别名分析
[知乎]可能99%人犯的PyTorch错误] set_seed 会破坏随机性,官方 worker_init_fn 无法解决
TorchDynamo 初探:Python ByteCode 的动态修改
PyTorch 2.0 Dynamo 字节码详解!自顶向下,由浅入深
PyTorch显存分配原理——以BERT为例
PyTorch在CPU上的一些Performance BKM
PyTorch CPU性能优化(一):Memory Format 和 Channels Last 的性能优化
PyTorch CPU性能优化(二):并行化优化
PyTorch CPU性能优化(三):向量化
PyTorch CPU性能优化(四):BFloat16
GNN 在CPU上的性能优化
PyTorch 工程实践(一):使用Valgrind解决内存double free的问题
PyTorch显存机制分析
pytorch 提速指南(持续更新)
PyTorch 2.0 编译基础设施解读——计算图捕获(Graph Capture)
pytorch算子的cuda实现——expand,where,softmax
csrc autograd的一些基础类解析
PyTorch Dynamo 初探2:torch fx 调研和实践
一文搞懂 AOTAutograd 原理
谁动了我的显存?——深度学习训练过程显存占用分析及优化
[知乎]pytorch2.0目前值得更新吗?
PyTorch 2.0 之 Dynamo: eager 模式的救星,加速背后的真相
PyTorch显存可视化与Snapshot数据分析
成城 OneFlow —— 让每一位算法工程师都有能力训练 GPT
大缺弦 Oneflow 基于重计算的动态图显存优化实践
许啸宇 访问者模式(Visitor Pattern)及其实现
黄卓彬 在 Oneflow 中开发 Gather Primitive
黄卓彬 在 Oneflow 中开发算子的基本流程
李响 OneFlow 的 Global Tensor 学习笔记和实习总结
李响 OneFlow如何做静态图的算子对齐任务
李响 OneFlow 的大模型分片保存和加载
周泽楷 OneFlow: 初始化环境
周泽楷 OneFlow: Python 端构图
周泽楷 OneFlow: 从 Op 到 Job
周泽楷 OneFlow: 启动 Session
周泽楷 OneFlow: 从 Job 到 Plan
周泽楷 OneFlow: 启动 Runtime
周泽楷 OneFlow: 计算数据的来源
成城 OneFlow是如何做到世界最快深度学习框架的
成城 仅此一文让您掌握OneFlow框架的系统设计(上篇)
成城 仅此一文让您掌握OneFlow框架的系统设计(中篇)
成城 仅此一文让您掌握OneFlow框架的系统设计(下篇)
郭冉 如何实现一个高效的Softmax CUDA kernel?——OneFlow 性能优化分享
赵露阳 一个Job在OneFlow中的执行过程—上篇
赵露阳 一个Job在OneFlow中的执行过程—中篇
赵露阳 一个Job在OneFlow中的执行过程—下篇
赵露阳 亚线性内存优化—activation checkpointing在oneflow中的实现
梁德澎 Oneflow 框架添加算子实践 ---- expand 和 repeat
郑泽康 在OneFlow实现Unfold Fold算子
郑泽康 在OneFlow实现数据类型自动提升
赵露阳 OneFlow中的dataloader原理及实现(对齐pytorch)
OneFlow中的错误处理:Maybe
郑泽康 如何实现比PyTorch快6倍的Permute/Transpose算子?
柳俊丞 如何设置CUDA Kernel中的grid_size和block_size?
吴志新 一文搞懂OneFlow中的内存复用
Update Weekly
🤗
By YangZi
Update Weekly
🤗
By YangZi
🧰Paper
【论文写作】 TexPage
【论文写作】 Overleaf
【论文图谱】 Citex
【论文图谱】 Connected Papers
【在线latex编辑】LatexLive
【论文 GPT】 Aminer
【Latex 入门】 Latex 入门与进阶
【ACM】 ACM
【Google Scholar】 Google Scholar
【Web Of Science】 Web of Science
【DBLP】 DBLP
【Arxiv】 Arxiv
【Zotero】 Zotero 论文参考文献
🧰Media
【UpsCayl】图像清晰度增强工具(论文图片增强)
【TG】Telegram万能下载
【Bilibili】视频下载
【Bilibili】视频下载
【Bilibili】弹幕合并
【Bilibili】弹幕转ASS
【Bilibili】弹幕版录播教程
【Bilibili】B站Cookie
【AI】火山写作
【PPT 素材】PPTer
【PPT 素材】SlidesCarnival
【PPT 素材】PPT 牛
【音乐下载】悦听
【Unicode】Unicode大全
【自动写流程图】Lucid
【Manim】python 实现平滑 PPT
🧰Coding
【ai-bot】AI工具集大全
【CodeInWord】(在word里呈现优雅代码)
【万能汇编】(强大在线编译工具)
【编码解码】 RV 编码解码
【在线编程】 Hackerrank
【在线编程】 Exercism
【在线编程】 CodeWars
【在线编程】 CoLab
🧰Knowledge
ZLib(书籍大全)
Linux命令大全
【ZSH】 ZSH 教程
【网页】 JS压缩
【网页】 CSS压缩
【字体】 TTF转WOFF2
【字体】 TTF转WOFF2
【图片】 JPG转WEBP
【LOGO】 自主设计LOGO.免费签名
🧰Others
【SVG】Simple Icons
【内蒙古高性能计算公共服务平台】
【报告】三个皮匠报错
【VERCEL】自助建站工具(除了github,gitlab之外)
【内网穿透】ngrok
【微信视频号下载】wx_channels_download,兼容Mac+Win(亲测最好用的一个)
Update Weekly
🤗
By YangZi
编译原理,编译实践
康奈尔大学先进编译课程
先进编译实验室课程导航
CS自学指南
编程语言
C++学习与评测
机器学习
人工智能大模型通论
大模型技术的重要特性与发展趋势
📚编译原理
LLVM编译器实战教程
Learn LLVM 17
龙书
多面体编译理论与深度学习实践
现代体系结构的优化编译器
高级编译器设计与实现