Lexikon Definition für Deutscher Bund

Deutscher Bund:
Zusammenschluß von deutschen Fürstentümern und freien Städten, zwischen 1815 und 1866.

Weitere Artikel

Deutscher Bund - Lexikon