Impfung in einem Betrieb in Niedersachsen. Foto: /Swen Pförtner

In den USA nutzen Firmen die Rechtslage und verpflichten ihre Arbeitnehmer zum Impfen. Wie sehen die Möglichkeiten bezüglich eines Impfzwangs bei deutschen Unternehmen aus?

Stuttgart - Arbeitgeber in Deutschland haben nicht das Recht, ihren Mitarbeitern eine Impfung vorzuschreiben. Das gilt auch für Einrichtungen wie Krankenhäuser oder Pflegeheime. Ausschließlich der Gesetzgeber könnte eine solche Pflicht etablieren. Für einzelne Branchen oder Betriebe müsste das allerdings dann im Einzelfall sachlich begründet werden.