Lexikon Definition für Thriller

Thriller:
Der Thriller ist ein Roman, ein Film oder ein Bühnenstück, das dem Nervenkitzel und der Spannung dient.

Weitere Artikel

Thriller - Lexikon