Este proyecto se enfoca en el entrenamiento de un agente de aprendizaje por refuerzo para aterrizar un rover en la luna de manera segura y eficiente.
20240630-1446-31.2722632.mp4
Aprendizaje profundo por refuerzo.pdf: Documento que contiene la base teórica sobre el aprendizaje por refuerzo profundo.Rover_lunar.ipynb: Notebook de Jupyter con la implementación práctica del agente para el aterrizaje lunar utilizando OpenAI Gymnasium y Stable Baselines.taller/: Carpeta con soluciones a otros problemas de aprendizaje por refuerzo.
Para una comprensión profunda de los conceptos de aprendizaje por refuerzo utilizados en este proyecto, por favor consulte el archivo Aprendizaje profundo por refuerzo.pdf.
La implementación del agente para el aterrizaje lunar se encuentra en el notebook Rover_lunar.ipynb. Este notebook le guiará a través de los siguientes pasos:
- Análisis del Problema: Comprensión del entorno LunarLander-v2 de Gymnasium, incluyendo el espacio de observación, el espacio de acción y la función de recompensa.
 - Implementación del Entorno: Cómo crear y visualizar el entorno de simulación.
 - Entrenamiento del Agente: Uso del algoritmo Proximal Policy Optimization (PPO) de Stable Baselines para entrenar al agente.
 - Evaluación: Evaluación cuantitativa y cualitativa del rendimiento del agente entrenado.
 
El notebook Rover_lunar.ipynb está diseñado para ser ejecutado en un entorno de Jupyter Notebook en local. No se recomienda su ejecución en Google Colab debido a la falta de soporte para el entornos visuales.
Rolando Andrade
Este proyecto es solo con fines educativos.