ChatGPT-LLM PRERA
发表于 |更新于|GPT 问答
|字数总计:14|阅读时长:1分钟|阅读量:
评论
目录
- LLVM pre-RA调度优化
- 基于机器学习的LLVM寄存器分配前指令调度优化方案
- preds left : 2
- succs left : 0
- rdefs left : 0
- preds left : 0
- succs left : 1
- rdefs left : 1
- preds left : 1
- succs left : 1
- rdefs left : 0
- preds left : 0
- succs left : 1
- rdefs left : 0
- Response:
- ① 证明泛化性的全链条实验设计
- ② 把 ScheduleDAG 转成模型输入
- Prompt:
- Response:
- Prompt:
- Response:
- ① GNN / RNN 与强化学习如何协同?
- ② 强化学习的“终点”与奖励构造
- ③ 训练规模与资源估算
- ④ 模型输入 / 输出格式(ONNX 推理接口)
- ⑤ 是否需要在线学习?
- Prompt:
- Response:
- Prompt:
- Response:
- ① 强化学习库 / 环境选型
- ② 训练资源预估
- ③ “DAG → RL 环境” 全流程拆解
- ④ 我完全没做过 GNN / RL,怎么入门?
- Prompt:
- Response:
- ① 模型在各阶段的角色
- ② 动态量(如溢出数)的编码
- ③ 极简 Demo(全中文注释)
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- Response:
- Prompt:
- 1 | 数据与状态初始化
- 2 | Supervised Imitation → RL 逐段温升
- 3 | 确保“永远不出错序列”的两道闸
- 4 | 奖励冷启动——避免朝错误方向爬
- 5 | 实践 Tips
- Response:
- Prompt:
- ① 训练时的「状态-动作-转移」细粒度流程
- ② 用“静态 + 模拟”参数代替 noisy perf 的奖励源
- ③ 写出“能进 ASPLOS”的行文框架
- Response:
- Prompt:
- 详细展开
- 写进论文的卖点