L'histoire

Dictionnaire d'histoire


Traité de Versailles

Le Traité de Versailles était un traité de paix signé, à la suite de la Conférence de paix, entre l'Allemagne et les pays alliés à la fin de la Première Guerre mondiale (juin 1919) où les conditions de la reddition allemande étaient définies, à savoir la restitution de la régions d'Alsace et de Lorraine à la France, la perte de toutes les colonies d'outre-mer, les lourdes indemnités versées aux vainqueurs et l'obligation de démilitariser leur armée, conditions qui constituaient une véritable humiliation pour l'Allemagne. Pour de nombreux historiens, c'est cette humiliation qui a donné lieu à la Seconde Guerre mondiale.

En savoir plus

Autres suggestions de mots…

La république

Coup

Profane

Troc

Identité culturelle

Modernité

Courtisan

Elite