Lexikon Definition für Winter

Winter:
Der Winter bezeichnet die kalte Jahreszeit. In nördlichen Gebieten kann der Winter eine monatelange Kälteperiode mit Eis und Schnee bedeuten.

Weitere Artikel

Winter - Lexikon