Lexikon Definition für Kredit

Kredit:
Kredit bedeutet eigentlich wörtlich Vertrauen oder Glaube. Der Kreditgeber oder Gläubiger gibt dem Kreditnehmer oder Schuldner Finanzmittel und vertraut darauf, dass der Schuldner es in der Zukunft zurückzahlt.

Weitere Artikel

Kredit - Lexikon