Lexikon Definition für annektieren

annektieren:
Annektieren meint, dass etwas gewaltsam angeeignet wird wie zum Beispiel fremdes Land oder ein Staat. In Kriegen werden Gebiete von den Feinden annektiert.

Weitere Artikel

Annektieren - Lexikon