Was bedeuten Vitamine für den Körper?
Vitamine sind organische Substanzen, die für Körperfunktionen lebenswichtig sind. Die meisten Vitamine können aber vom Menschen nicht selbst gebildet werden und müssen deshalb Teil der Nahrung sein. Vitamine sind notwendig für den Stoffwechsel und das Immunsystem. Darüber hinaus sind sie essentiell für die Bildung von Zellen, Blutkörperchen, Zähnen und Knochen. Es ist also klar, dass Vitamine für den Menschen und seine Gesundheit von zentraler Bedeutung sind.
