Yapay Zeka Derin Pekiştirmeli Öğrenme ile Hayatta Kalmayı Öğreniyor
Abstract views: 12 / PDF downloads: 14
Keywords:
Derin Pekiştirmeli Öğrenme, Yapay Zeka Ajanları, Hayatta Kalma Simülasyonları, Ödül ve Ceza Sistemleri, Unity ML-AgentsAbstract
Günümüzde, yapay zeka teknolojisinin hızla gelişmesiyle birlikte, yapay zeka ajanlarının gerçek
dünya olay ve ortamlarında başarılı bir şekilde işlev görmesi ve hatta hayatta kalabilmesi giderek daha
büyük bir önem kazanmaktadır. Yapay zeka ajanlarının çevresel değişimlere hızlı uyum sağlayarak en
uygun kararları alması, bu sistemlerin gerçek dünya problemlerine yönelik potansiyelini ortaya
koymaktadır. Bu çalışmada derin pekiştirmeli öğrenme (deep reinforcement learning) teknikleri
kullanılarak, yapay zeka ajanlarının dinamik, tehlikeli ve değişken çevrelere uyum sağlamaları
hedeflenmiştir. Çalışma kapsamında, ajanların doğal afet, engel ve diğer tehditler gibi gerçek dünyadan
ilham alınan zorluklarla başa çıkabilmeleri sağlanmıştır. Bu süreçte, ödül ve ceza sistemleri kullanılarak
istenen davranışların öğrenilmesi teşvik edilmiştir. Bu amaçla Unity ML-Agents kullanılarak simüle edilen
oyun ortamlarında, ajanlar gerçek dünya koşullarına benzer bir şekilde eğitilmiştir. Eğitim sürecinde
Proximal Policy Optimization (PPO) gibi modern algoritmalar kullanılarak, öğrenmenin hızlanması ve
kararlı hale gelmesi sağlanmıştır. Ayrıca ödül şekillendirme, müfredat öğrenmesi ve deneyim tekrarı gibi
stratejiler ile ajanların daha etkili öğrenmesini desteklemiştir. Bu yaklaşımlar, ajanların yalnızca sanal
ortamlarda değil, gerçek dünyada da işlevsel olabilecek yetenekler geliştirmesini mümkün kılmıştır.
Çalışmada, yapay zeka teknolojisinin oyun geliştirme, doğal afet yönetimi ve otonom sistemler gibi çeşitli
uygulama alanlarındaki kullanımı sunularak değerlendirilmektedir. Sonuçlar, yapay zekanın güvenilirliği
ve dayanıklılığı konusunda önemli adımlar atıldığını göstermektedir. Yapay zeka sınırlarının genişletilerek,
insan yaşamını kolaylaştıracak ve birçok sektöre katkı sağlayacak ileri teknolojilerin geliştirilmesine ışık
tutması hedeflenmektedir. Böylece, derin pekiştirmeli öğrenme tekniklerinin hem araştırma hem de
uygulama alanındaki önemini vurgulayan kapsamlı bir çerçeve sunulmaktadır.
Downloads
References
K. Hartness, “ROBOCODE: Using Games to Teach Artificial Intelligence,” Journal of Computing Sciences in Colleges, vol. 19, no. 4, pp. 287–291, 2004.
S. T. Jadhav, S. M. Pathan, D. S. Revgade, R. H. Chivade, and M. R. Bendre, “AI in Game Development,” International Research Journal of Modernization in Engineering Technology and Science, vol. 06, no. 05, pp. 7716–7719, 2024.
V. Mnih et al., “Playing Atari with Deep Reinforcement Learning,” Deep Reinforcement Learning: Fundamentals, Research and Applications, pp. 135–160, 2020.
V. Mnih et al., “Asynchronous Methods for Deep Reinforcement Learning,” in Proceedings of 33rd International Conference on Machine Learning, 2016, vol. 48, pp. 1928–1937.
D. Silver et al., “Mastering the game of Go with deep neural networks and tree search,” Nature, vol. 529, no. 7587, pp. 484–489, 2016.
R. R. Torrado, P. Bontrager, J. Togelius, J. Liu, and D. Perez-Liebana, “Deep Reinforcement Learning for General Video Game AI,” IEEE Conference on Computatonal Intelligence and Games, CIG, pp. 1–8, 2018.
P. V. Rao et al., “Deep Reinforcement Learning: Bridging the Gap with Neural Networks,” International Journal of Intelligent Systems and Applications in Engineering, vol. 12, no. 15s, pp. 576–586, 2024.
O. Engin and S. Bünyamin, “Makine Çizelgeleme Problemlerinin Çözümünde Pekiştirmeli Öğrenme Etkisinin Analizi,” ALKÜ Fen Bilimleri Dergisi, vol. 6, no. 2, pp. 116–140, 2024.
H. Guo et al., “Deep Reinforcement Learning for Dynamic Algorithm Selection: A Proof-of-Principle Study on Differential Evolution,” IEEE Transactions on Systems, Man, and Cybernetics: Systems, vol. 54, no. 7, pp. 4247–4259, 2024.
H. Ma, K. Sima, T. V. Vo, D. Fu, and T. Y. Leong, “Reward Shaping for Reinforcement Learning with An Assistant Reward Agent,” Proceedings of Machine Learning Research, vol. 235, pp. 33925–33939, 2024.
Y. Bengio, J. Louradour, R. Collobert, and J. Weston, “Curriculum learning,” in Proceedings of the 26th Annual International Conference on Machine Learning, 2009, pp. 41–48.
J. Schulman, F. Wolski, P. Dhariwal, A. Radford, and O. Klimov, “Proximal Policy Optimization Algorithms,” in Proceedings of the 34th International Conference on Machine Learning (ICML), 2017, pp. 1–12.
“Training your agents 7 times faster with ML-Agents.” [Online]. Available: https://unity.com/blog/engine-platform/training-your-agents-7-times-faster-with-ml-agents.
C. Yang, K. Yuan, S. Heng, T. Komura, and Z. Li, “Learning Natural Locomotion Behaviors for Humanoid Robots Using Human Bias,” IEEE Robotics and Automation Letters, vol. 5, no. 2, pp. 2610–2617, 2020.
D. Zha, K. H. Lai, K. Zhou, and X. Hu, “Experience Replay Optimization,” in Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19), 2019, vol. 2019-Augus, pp. 4243–4249.