电脑桌面
添加能源双碳资料库到电脑桌面
安装后可以在桌面快捷访问

2024年适于电力系统的深度强化学习方法探索报告——张翔昱免费下载

2024年适于电力系统的深度强化学习方法探索报告——张翔昱2024年适于电力系统的深度强化学习方法探索报告——张翔昱2024年适于电力系统的深度强化学习方法探索报告——张翔昱2024年适于电力系统的深度强化学习方法探索报告——张翔昱
适于电力系统的深度强化学习方法探索张 翔 昱电气工程学院,东南大学2024 年 10 月 @ 江苏省电工技术学会学习辅助型优化求解模型预测控制 + 值函数学习 ( 用作终端成本 ) 学习加速型 ADMM: 利用循环神经网络预测 ADMM 的收敛轨迹可微规划 (Differentiable Programming)利用深度学习框架 ( 如 PyTorch) 求解优化 问题原始 - 对偶可微预测控制 ( 考虑显式约束、 基于模型的策略训练 )混合式算法+ 结合两者优势( 无模型 ) 强化学习适于电力系统的策略训练方法: 全局 - 局部两阶段策略搜索 基于课程学习的策略搜索超算集群中的强化学习训练强化学习优势发掘 ( 如端到端考 虑不确定性的优化问题 )基于多代理强化学习的分布式优 化问题· 基于纯数据无探索的强化学习基于学习型优化方法+ 快速实时响应+ 对系统模型形式无要求十 学习需要大量数据最优性、约束无法严格保障关注问题电力系统中具有强时序相关性的多步决策优化问题。传统优化方法· 模型预测控制 (MPC)传统基于优化方法+ 最优性保障+ 显式约束表达十系统模型可能需简化 需实时计算前期相关研究概况1.1 强化学习背景 03相比于传统优化方法,基于强化学习的方法在工程应用中具有如下优势:√ 快速决策 √ 轻量部署 √ 适于复杂问题该问题可由马尔可夫决策过程 (MDP) 进行描述,包含状态空 间 S(st∈S) 、决策空间 A(at∈A) 、环境动态过程 f, 奖励函 数 R 等。针对多步长决策优化问题,通过训练获得策略 πg*(at|st), 也作 at=πg+(st)来最大化控制周期 (T) 内 的奖励期望为解决复杂电网问题提供了新方法atRLAgentπg·(at|st)EnvironmentSt+1=f(st,at,()rt=R(St,at,St+1)强化学习概念St t

1、当您下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

声明:本站为非经营盈利性个人网站(C2C模式),即所有资料为用户上传并直接被用户下载,本站只是中间服务平台。所有资料仅供个人学习使用,请勿他用。本站所获取的赞助将用于本站服务器及运营成本,感谢大家的支持。我们倡导共建、共创、共享的模式分享知识! 本站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对内容本身不做任何修改或编辑。若资料或所含内容侵犯了您的版权或隐私等任何权益,请立即通知联系客服或在资料页面直接举报反馈,我们会及时妥善处理。

客服微信:pv3515客服QQ:2090330665客服邮箱:2090330665@qq.com

若无法下载、资料侵权等问题联系客服立即处理!微信:pv3515

2024年适于电力系统的深度强化学习方法探索报告——张翔昱

您可能关注的文档

确认删除?
微信客服
  • 管理员微信
QQ客服
  • QQ客服点击这里给我发消息