Lexikon Definition für Testament

Testament:
Ein Testament ist der letzte Wille eines Menschen, in dem er festlegt und wünscht, was mit seinen Besitztümern geschehen soll.

Weitere Artikel

Testament - Lexikon