Lexikon Definition für Germanistik

Germanistik:
Im eigentlichen Sinn ist die Germanistik die Lehre von Sprache, Recht, Geschichte, Kunst, Religion, Volkstum und Wirtschaft der Germanen; im engeren Sinn bezeichnet Germanistik die Lehre und Wissenschaft der deutschen Sprache und der deutschen Literatur. Der Begriff Germanistik geht bis in die Zeit des Humanismus zurück, als man begann, die deutsche Sprache und die deutsche Literatur zu erforschen.

Weitere Artikel

Germanistik - Lexikon