Lexikon Definition für Wirtschaft

Wirtschaft:
Wirtschaft ist der Teil des menschlichen Lebens, der sich mit der Sicherung und Erhaltung von Handel und Lebenserhaltung befasst. Umgangssprachlich wird aber auch ein gastronomischer Betrieb als Wirtschaft bezeichnet.

Weitere Artikel

Wirtschaft - Lexikon