El Camino al Tercer Reich: Weimar, Hitler y la Expansión Alemana

La República de Weimar y los Orígenes del Nazismo

La República de Weimar fue el sistema político que gobernó Alemania desde el final de la Primera Guerra Mundial en 1918 hasta la llegada al poder de Adolf Hitler y el Partido Nazi en 1933. Durante este período, Alemania experimentó una serie de desafíos políticos, económicos y sociales, lo que contribuyó al ascenso del nazismo.

Después de la derrota en la Primera Guerra Mundial, Alemania se vio obligada a firmar el Tratado de Versalles Sigue leyendo