print logo

Wie freizugängliche KI deutsche Unternehmen gefährdet

Studie: 58 % der Führungskräfte nutzen freizugängliche KI beruflich. Nur 24 % haben klare Datenschutzvorgaben.
11.06.24

- Datenschutzprobleme bei KI-Nutzung
- 62 % der Unternehmen haben keine Datenschutzrichtlinien für KI
- 8 % geben täglich interne Daten an KI-Systeme weiter


Die Studie der Shamundi Consulting und der ISM unter 750 Führungskräften zeigt ein großes Datenschutzrisiko bei der Nutzung freizugänglicher KI-Lösungen in deutschen Unternehmen. 62 % der befragten Unternehmen haben keine spezifischen Datenschutzvorgaben für die Nutzung von KI-Systemen, und nur 24 % verfügen über solche Richtlinien, berichtet Pressetext.


Freizugängliche KI-Lösungen wie ChatGPT oder Claude.ai werden von 58 % der Führungskräfte beruflich genutzt, hauptsächlich zum Korrekturlesen und zur Informationsgewinnung. Besorgniserregend ist, dass 8 % der Befragten täglich interne Unternehmens- oder Kundendaten an solche KI-Systeme weitergeben. Dies stellt ein erhebliches Sicherheitsrisiko dar, insbesondere da nur 24 % der Unternehmen klare Vorgaben für den Umgang mit Daten haben und 23 % der Befragten sich im Umgang mit KI-Datenschutz nicht ausreichend informiert fühlen.


Trotz der bestehenden Datenschutzproblematik gibt es eine Grundsensibilität unter den Führungskräften. 34 % haben schon einmal bewusst darauf verzichtet, sensible Daten an freizugängliche KI-Systeme zu übermitteln, aus Bedenken hinsichtlich des Datenschutzes.


Die Studie unterstreicht die dringende Notwendigkeit klarer Richtlinien und regelmäßiger Überprüfungen, um sicherzustellen, dass Unternehmen die Datenschutzbestimmungen einhalten. Es wird deutlich, dass interne und DSGVO-Vorgaben nicht ausreichen, um den sorglosen Umgang mit sensiblen Daten bei der Nutzung von freizugänglichen KI-Lösungen zu verhindern. Unternehmen und Gesetzgeber sind gefordert, verstärkte Anstrengungen zur Sicherstellung des Datenschutzes zu unternehmen.