Lexikon Definition für Kolonie

Kolonie:
Kolonie bezeichnet sowohl ein Landesgebiet, das wirtschaftlich und politisch von einem anderen Land abhängig ist, als auch ein Tierverbund.

Weitere Artikel

Kolonie - Lexikon