Lexikon Definition für Frieden

Frieden:
Friede; Gegenteil von Krieg; Zusammenleben von Menschen, Gruppen oder Staaten ohne Konflikte oder die Lösung von Problemen ohne Gewalt; vor allem für die Politik zwischen Staaten spielt der Frieden eine große Rolle; man unterscheidet den positiven und den negativen Frieden; beim negativen Frieden setzt man auf die Lösung von Konflikten ohne Gewalt, ohne Krieg (Nicht-Krieg); beim positiven Frieden versucht man aus den auf Veränderungen beruhenden Konflikten zu lernen und friedlich zu regeln; verschiedene Organisationen riefen einen Weltfriedenstag ins Leben: der Antikriegstag am 1. September (DGB), der Weltfriedenstag am 1. Jänner (Papst Paul VI), International Day of peace am 21. September (UNO); Frieden ist auch die Voraussetzung um Staatsverträge zwischen Staaten abzuschließen sowie auch Handels-, Kultur- und Rechtsbeziehungen zu pflegen; Krieg unterbricht den Frieden; durch Friedensverträge kann Frieden wieder hergestellt werden.

Weitere Artikel

Frieden - Lexikon