So sánh học tăng cường ràng buộc với các bộ điều khiển truyền thống trong điều chỉnh điện áp và chất lượng điện năng trên lưới phân phối IEEE 33-BUS

1 lượt xem

Các tác giả

  • Nguyen Minh Cuong (Tác giả đại diện) Viện Công nghệ giáo dục và Đào tạo mở, Trường Đại học Kỹ thuật Công nghiệp, Đại học Thái Nguyên

DOI:

https://doi.org/10.54939/1859-1043.j.mst.110.2026.12-21

Từ khóa:

Học tăng cường ràng buộc; Điều chỉnh điện áp; Chất lượng điện năng; Lưới phân phối; Hiệu suất bộ điều khiển.

Tóm tắt

Nghiên cứu này tiến hành so sánh giữa bốn bộ điều khiển PI, Droop, tối ưu dự báo và học tăng cường ràng buộc trong việc điều chỉnh điện áp và cải thiện chất lượng điện năng trên lưới phân phối IEEE 33 nút. Phương pháp được triển khai dựa trên mô hình DistFlow tuyến tính, kết hợp dữ liệu tải trong 24 h, đồng thời thiết lập bộ chỉ số đánh giá gồm các tham số chất lượng điều khiển (thời gian xác lập, độ quá điều chỉnh, sai số xác lập, ISE) và chất lượng điện năng (độ lệch điện áp, chỉ số điều chỉnh điện áp, THD, hệ số công suất, tổn thất công suất, chỉ số ổn định điện áp). Kết quả cho thấy học tăng cường ràng buộc đạt thời gian xác lập 16.8 h, độ quá điều chỉnh 3.20%, sai số xác lập 0.007 pu và tổn thất 0.145 MW, vượt trội hơn PI (24.0 h, 12.00%, 0.038 pu, 0.158 MW) và tối ưu dự báo (24.0 h, 8.00%, 0.055 pu, 0.162 MW). Droop đạt sai số tích phân nhỏ nhất 0.009 pu²h và THD thấp 1.95%, song khả năng điều chỉnh điện áp chỉ đạt 12.11%. Điểm nổi bật của học tăng cường ràng buộc là sự cân bằng giữa tốc độ, độ chính xác và độ ổn định, với dải điện áp duy trì 0.95–1.08 pu cùng THD 2.20% và chỉ số ổn định điện áp 0.112. Các kết quả này chứng minh tiềm năng của học tăng cường ràng buộc như một phương pháp tiên tiến, vừa bảo đảm ràng buộc kỹ thuật vừa cải thiện đáng kể chất lượng vận hành. Ý nghĩa thực tiễn là phương pháp này có thể được áp dụng cho lưới phân phối hiện đại nhiều nguồn phân tán và phụ tải linh hoạt, đồng thời mở ra hướng nghiên cứu mở rộng cho các kịch bản đa tác tử và dữ liệu bất định.

Tài liệu tham khảo

[1]. A. Sajadi, R. W. Kenyon, and B.-M. Hodge. “Synchronization in electric power networks with inherent heterogeneity up to 100% inverter-based renewable generation”. Nature Communications, vol. 13, no. 1, p. 2490, (2022).

[2]. S. Wagle, A. K. Gupta, and K. O. Nygård. “Co-simulation-based optimal reactive power control in smart distribution network”. Electrical Engineering, vol. 106, pp. 2441–2464, (2024).

[3]. W. Cui, Y. Li, and B. Zhang. “Decentralized Safe Reinforcement Learning for Voltage Control”. IEEE Transactions on Smart Grid, vol. 13, no. 6, pp. 4957–4968, (2022).

[4]. R. R. Hossain, Y. Zhou, and G. Hug. “Efficient learning of power grid voltage control strategies via model-based deep reinforcement learning”. Machine Learning, vol. 113, pp. 2675–2700, (2024).

[5]. C. Hu, Y. Sun, and Q. Li. “A soft actor-critic deep reinforcement learning method for multi-timescale coordinated operation of microgrids”. Protection and Control of Modern Power Systems, vol. 7, p. 29, (2022).

[6]. A. El-Fergany. “Reviews, Challenges, and Insights on Computational Methods for Network Reconfigurations in Smart Electricity Distribution Networks”. Archives of Computational Methods in Engineering, vol. 31, pp. 1233–1253, (2024).

[7]. V. Waghmare, V. P. Singh, and T. Varshney. “A systematic review of reinforcement learning-based control for microgrids: trends, challenges, and emerging algorithms”. Discover Applied Sciences, vol. 7, p. 939, (2025).

[8]. W. Cui, Y. Li, and B. Zhang. “Safe Reinforcement Learning for Decentralized Voltage Control with Stability Guarantees”. IEEE Transactions on Power Systems, vol. 38, no. 2, pp. 1456–1468, (2023).

[9]. H. Liu and W. Wu. “Online Multi-Agent Reinforcement Learning for Decentralized Inverter-Based Volt-VAR Control”. IEEE Transactions on Smart Grid, vol. 12, no. 4, pp. 2980–2990, (2021).

[10]. P. Yu, M. Anghel, and J. W. Kimball. “Safe Reinforcement Learning for Power System Control: A Review”. IEEE Transactions on Power Systems, vol. 39, no. 1, pp. 2–18, (2024).

[11]. P. Li, F. Xu, and H. Sun. “Optimal real-time Voltage/Var control for distribution network: Droop-control based multi-agent deep reinforcement learning”. International Journal of Electrical Power & Energy Systems, vol. 153, p. 109370, (2023).

[12]. X. Ding, L. Jiang, and Y. Zhang. “Multi-time-scale voltage control of the distribution network”. Frontiers in Energy Research, vol. 12, p. 1445623, (2024).

[13]. S. Bhowmik, Z. Wang, J. M. Guerrero, K. Xie, and J. C. Vázquez. “Hybrid-compatible grid-forming inverters based on topological migration-optimized virtual synchronous control”. Scientific Reports, vol. 15, p. 26194, (2025).

[14]. X. Zhang, L. Yang, and M. Chen. “Impedance-shaping-based stabilization control method for grid-forming converters”. Scientific Reports, vol. 15, p. 14523, (2025).

[15]. M. Sravani, P. D. P. Reddy, and M. S. Bhaskar. “Deep reinforcement learning-based controller for DC-link voltage stabilization in grid-connected PV systems”. Scientific Reports, vol. 15, p. 8729, (2025).

Tải xuống

Đã Xuất bản

25-04-2026

Cách trích dẫn

[1]
Nguyen Minh Cuong, “So sánh học tăng cường ràng buộc với các bộ điều khiển truyền thống trong điều chỉnh điện áp và chất lượng điện năng trên lưới phân phối IEEE 33-BUS”, J. Mil. Sci. Technol., vol 110, số p.h 110, tr 12–21, tháng 4 2026.

Số

Chuyên mục

Kỹ thuật điều khiển & Điện tử