ChatGPT-LLM PRERA | 逸翎清晗🌈
avatar
文章
168
标签
39
分类
52

首页
文章
  • 归档
  • 标签
  • 分类
专区与和合辑
  • 多媒体资料专区
  • 论文导读专区
  • 学术会议专区
  • 推荐学习资料专区
  • 学习路线专区
编译器
操作系统
集成电路
AI编译
大语言模型
程序设计
计算理论
分布式
后台
  • 画廊
  • 统计
  • 休闲
  • 旧时光
  • 个人
  • 关于
逸翎清晗🌈
首页
文章
  • 归档
  • 标签
  • 分类
专区与和合辑
  • 多媒体资料专区
  • 论文导读专区
  • 学术会议专区
  • 推荐学习资料专区
  • 学习路线专区
编译器
操作系统
集成电路
AI编译
大语言模型
程序设计
计算理论
分布式
后台
  • 画廊
  • 统计
  • 休闲
  • 旧时光
  • 个人
  • 关于
PAGE_NAME
搜索

ChatGPT-LLM PRERA

发表于 2025-04-01|更新于2025-06-13|GPT 问答
|字数总计:14|阅读时长:1分钟|阅读量:
ChatGPT-LLM PRERA
https://yangzi.world/blog/posts/c9d2ab4e.html
作者
逸翎清晗🌈
发布于
2025-04-01
更新于
2025-06-13
许可协议
CC BY-NC-SA 4.0
cover of previous post
上一篇
ChatGPT-LLMISched
cover of next post
下一篇
ChatGPT-IR数据集

评论
目录
  1. LLVM pre-RA调度优化
    1. Prompt:
    2. Response:
    3. Prompt:
    4. Response:
  2. 基于机器学习的LLVM寄存器分配前指令调度优化方案
    1. LLVM现有pre-RA指令调度器及其局限性
    2. 相关机器学习指令调度工作及不足
    3. 数据收集方案
    4. 机器学习模型设计
    5. 训练与测试计划
    6. 部署与集成方案
    7. 潜在挑战与应对措施
    8. 论文写作建议
    9. Prompt:
    10. Response:
      1. 论文候选标题
    11. 适合投稿 ASPLOS / CGO / MICRO 吗?
    12. “模拟审稿人”尖锐问题与应对策略
      1. 面对质疑时的总体策略
    13. Prompt:
    14. Response:
    15. Prompt:
  3. preds left : 2
  4. succs left : 0
  5. rdefs left : 0
  6. preds left : 0
  7. succs left : 1
  8. rdefs left : 1
  9. preds left : 1
  10. succs left : 1
  11. rdefs left : 0
  12. preds left : 0
  13. succs left : 1
  14. rdefs left : 0
    1. Response:
    2. ① 证明泛化性的全链条实验设计
    3. ② 把 ScheduleDAG 转成模型输入
      1. 1. 解析原则
      2. 2. 图构建
      3. 3. GNN 消息传递示例
      4. 4. 动态状态特征
      5. 5. 从示例 DAG 提取的向量(概念版)
      6. 小结
    4. Prompt:
    5. Response:
      1. 结论性答复
    6. Prompt:
    7. Response:
    8. ① GNN / RNN 与强化学习如何协同?
    9. ② 强化学习的“终点”与奖励构造
    10. ③ 训练规模与资源估算
    11. ④ 模型输入 / 输出格式(ONNX 推理接口)
    12. ⑤ 是否需要在线学习?
      1. 组合小结
    13. Prompt:
    14. Response:
      1. 一、到底该收哪些参数?——给你一张“40 + 因子速查表”
      2. 二、工程落地:从仓库结构到复现脚本
      3. 三、学习资源:现成 RL-Compiler 开源项目
      4. 四、问题逐条回答
    15. Prompt:
    16. Response:
    17. ① 强化学习库 / 环境选型
    18. ② 训练资源预估
    19. ③ “DAG → RL 环境” 全流程拆解
      1. 1. 图静态 / 动态拆分思路
      2. 2. 代码雏形(PyG + TorchRL)
      3. 3. GNN + GRU 模型
      4. 4. “实时” 反馈的工程技巧
    20. ④ 我完全没做过 GNN / RL,怎么入门?
      1. 小结
    21. Prompt:
    22. Response:
    23. ① 模型在各阶段的角色
    24. ② 动态量(如溢出数)的编码
    25. ③ 极简 Demo(全中文注释)
      1. 读完你应能回答
    26. Prompt:
      1. Final schedule
    27. Response:
    28. Prompt:
      1. 我们需要保留的关键信息:
      2. 可以丢弃的内容:
      3. 模型输入的格式设计:
      4. 具体输入特征示例:
      5. 图结构表示:
      6. GNN + RL 模型训练:
      7. 总结:
    29. Response:
    30. Prompt:
      1. 1. 如何匹配 MBB 级别的调度与最终的性能反馈
        1. 1.1 MBB 级别调度与性能反馈的映射问题
        2. 1.2 解决方案:基于 全局累积反馈 的映射
          1. 1.2.1 累积反馈机制
          2. 1.2.2 时间延迟的考虑
        3. 1.3 奖励结构设计
      2. 2. 如何处理实时反馈的问题
        1. 2.1 模型训练中的时间同步
          1. 2.2 解决方案:使用 蒙特卡罗方法 和 信号平滑
      3. 3. 如何设计 MBB 级别的调度与指令级别的奖励匹配
        1. 3.1 结构化奖励设计
        2. 3.2 图结构与调度之间的关系
      4. 4. 具体方案总结
        1. 4.1 奖励信号的计算
        2. 4.2 反馈机制的设计
        3. 4.3 训练和推理分离
      5. 结论:
    31. Response:
    32. Prompt:
      1. 问题分析:如何处理由于 perf 工具的正常波动导致的反馈信号不稳定问题
      2. 解决方案:通过信号平滑和噪声抑制来克服 perf 工具的波动问题
      3. 1. 使用统计平滑技术(平滑奖励信号)
        1. 1.1 指数加权移动平均(Exponential Moving Average, EMA)
        2. 1.2 移动平均(Moving Average, MA)
        3. 1.3 均值-方差归一化(Mean-Variance Normalization)
      4. 2. 反馈延迟与奖励信号平滑
        1. 2.1 奖励信号延迟补偿
        2. 2.2 累积奖励模型(Cumulative Rewards)
      5. 3. 基于经验回放的噪声消除
        1. 3.1 经验回放(Experience Replay)
        2. 3.2 目标网络(Target Network)
      6. 4. 最终方案的实现
      7. 结论:
    33. Response:
    34. Prompt:
      1. 1. 强化学习模型与传统机器学习模型的异同
        1. 相同点:
        2. 不同点:
      2. 2. 强化学习训练出的 ONNX 模型
        1. 训练流程:
        2. 推理阶段:
      3. 3. 如何进行强化学习推理
        1. 输入:
        2. 输出:
        3. 反馈:
      4. 4. 总结
    35. Response:
    36. Prompt:
    37. 1 | 数据与状态初始化
    38. 2 | Supervised Imitation → RL 逐段温升
      1. 2.1 交叉熵模仿 (Epoch 0-3)
      2. 2.2 混合行为策略 (Epoch 4-6)
      3. 2.3 PPO warm-start (Epoch 7+)
    39. 3 | 确保“永远不出错序列”的两道闸
    40. 4 | 奖励冷启动——避免朝错误方向爬
    41. 5 | 实践 Tips
      1. 结论
    42. Response:
    43. Prompt:
    44. ① 训练时的「状态-动作-转移」细粒度流程
    45. ② 用“静态 + 模拟”参数代替 noisy perf 的奖励源
    46. ③ 写出“能进 ASPLOS”的行文框架
      1. 一句话总结
    47. Response:
    48. Prompt:
    49. 详细展开
      1. ① 逐步决策是怎样的
      2. ② 轻量性能预估器雏形
      3. ③ “组合嵌入”示例
    50. 写进论文的卖点

《咏菊》 林黛玉

无赖诗魔昏晓侵,绕篱欹石自沉音。
毫端蕴秀临霜写,口角噙香对月吟。
满纸自怜题素怨,片言谁解诉秋心。
一从陶令平章后,千古高风说到今。✨
A tour for Stars

内容导航💡

  • 网址导航我的画廊
  • 关于作者文章归档
  • 文章分类文章标签
©2025  By 逸翎清晗🌈

搜索
数据库加载中

复制百度搜索
转到链接
粘贴
空降评论复制本文地址
新窗口打开转到链接复制链接
保存图片在新窗口打开复制图片链接
随便逛逛昼夜切换关于博客美化设置切换全屏打印页面