Lexikon Definition für Karate

Karate:
Karate ist eine Kampfsportart, bei der keine Waffen benutzt werden, es wird nur mit Händen und Füßen gekämpft.

Weitere Artikel

Karate - Lexikon