Lexikon Definition für Arbeitsvertrag

Arbeitsvertrag:
Vertrag über die Beschließung eines Arbeitsverhältnisses. Es bedarf nicht zwingend einer schriftlichen Form, ist aber üblich um Rechte und Pflichten von Arbeitgeber und Arbeitnehmer zu regeln. Liegt kein schriftlicher Arbeitsvertrag vor, gelten die gesetzlichen Bestimmungen.

Weitere Artikel

Arbeitsvertrag - Lexikon