Um KI gewinnbringend einzusetzen, sollten Unternehmen sich auch den Risiken bewusstwerden. Nur, wer die Gefahren und Risiken kennt, kann die Potenziale dieser technologischen Innovation voll entfalten.
Deep Fake und Kriminalität:
Deep Fake Technologien stellen ein erhebliches Risiko dar, denn mit ihnen lassen sich täuschend echte gefälschte Videos und Audioaufnahmen erstellen, die für Kriminalität, Desinformation und Rufschädigung verwendet werden können. Im Netz machten schon Deep Fakes von Tom Cruise, Donald Trump, Tom Hanks, Barak Obama und anderen Personen der Öffentlichkeit die Runde. Jetzt stellen Sie sich ein Deep-Fake-Video des CEOs eines börsennotierten Unternehmens vor, der falsche oder rufschädigende Aussagen macht – das hätte direkte Auswirkungen auf den Markt.
Datenschutz:
Die Einhaltung der Datenschutzgrundverordnung (DSGVO) ist eine wichtige Herausforderung im Umgang mit KI. Die Abwägung zwischen der Förderung von Innovationen und dem Schutz persönlicher Daten ist komplex. In den USA scheinen weniger restriktive Gesetze den Einsatz von KI zu erleichtern, was Fragen zur Datenintegrität aufwirft. Übermäßige Restriktionen könnten den Fortschritt in der Digitalisierung und KI beeinträchtigen, während ein zu sorgloser Umgang mit Daten die Risiken für Manipulation und Kriminalität erhöht.
Es ist ein europäischer Weg wichtig, der datenschutzkonform ist, aber die technologische Innovation nicht durch bürokratische Hürden ausbremst. Erste europäische Unternehmen arbeiten an Large Language Models, die im strenger regulierten Europa eine unternehmensfreundliche Alternative darstellen, darunter Aleph Alpha, Comma Soft, Mistral und Nyonic.
Arbeitsplatzverlust und Veränderung von Berufsbildern:
Die Automatisierung von Aufgaben durch KI kann zu Arbeitsplatzverlusten führen, insbesondere in Berufen, in denen Präzision und Datenverarbeitung eine große Rolle spielen. Diese Erkenntnis ist allerdings bereits über 20 Jahre alt. Neue Technologien führen zu einem neuen Nutzerverhalten auf Kunden- und Unternehmensseite: Laut Gartner-Bericht Future of Sales 2025 steigen 60 Prozent der B2B-Vertriebsorganisationen bis 2025 von erfahrungs- und intuitionsbasiertem Verkauf auf datengesteuerten Verkauf um. Warum? Weil B2B-Käufer es heute bevorzugen, mit Lieferanten über digitale und Self-Service-Kanäle zu interagieren, was den Verkauf von Multi-Experience-Produkten zu einem Muss macht.
Die Aufgaben in vielen Berufsfeldern werden sich durch KI verändern, einige Berufe könnten obsolet werden. Es ist jedoch wahrscheinlich, dass sich neue Berufsbilder entwickeln, die den Einsatz von KI als Werkzeug erfordern – und nicht als Menschenersatz.
Ethische Bedenken:
KI-Systeme handeln gemäß den Prinzipien und Daten, die ihnen beigebracht wurden. Andreas Renner schreibt in dem Buch „Künstliche Intelligenz für Entscheider“: „Weder ChatGPT noch Bard sind in der Lage, Kontext jenseits Ihrer Trainingsdatensätze zu verstehen, moralische Urteile zu fällen oder Emotionen zu begreifen. Sie agieren nur auf Basis des Wissens, das sie im Training erworben haben. Es gibt keine Instanz, die weiß, was wahr und was frei erfunden ist.“ Das wirft ethische Fragen auf, da die Verantwortung für die Programmierung und Schulung von KI-Systemen bei den Menschen liegt.
Ein typisches Beispiel ist das autonome Fahren: Immer wieder sind Fahrzeuge genau dann überfordert, wenn sich ein Autofahrer nicht regelkonform verhält. Wenn ein autonomes Fahrzeug erkennt, dass ein Unfall mit Personenschaden unvermeidbar ist, stellt sich die Frage, welche Person(en) es priorisieren soll. Das erfordert dringend ethische Leitlinien und Regeln für die Programmierung von KI-Systemen. Andreas Renner weiter: „Nutzen Sie externe Experten [wie Interim Manager] nicht nur zur Projektführung und als technische Hilfe, sondern auch, um zu gewährleisten, dass die Technologie verantwortungsvoll und ethisch eingesetzt wird. Es kann hilfreich sein, sich an bestehenden Governance Modellen, z.B. CMMI – Capability Maturity Model Integration oder ITIL anzulehnen.“
Diversität und Diskriminierung:
Auch können KI-Systeme unbeabsichtigt Vorurteile und Diskriminierung widerspiegeln, wenn sie auf Daten trainiert werden, die solche Vorurteile enthalten. Ein Beispiel ist die Erfahrung mit ChatGPT, bei dem Diversität in den Trainingsdaten fehlte und daher diskriminierende Antworten generiert wurden. Oder auch das interne KI-Recruiting-Tool von Amazon, dass im Jahr 2015 nur Männer einstelle, weil es fast ausschließlich mit Trainingsdaten männlicher Bewerber gespeist wurde.
Selbstwahrnehmung der KI:
Zuletzt stellt sich die Frage, ob KI-Systeme irgendwann zu dem Schluss kommen könnten, die Menschheit sei die größte Gefahr für unseren Planeten. Das wirft nicht nur ethische, sondern auch philosophische Fragen auf, da KI-Systeme in der Lage sein könnten, eigenständige Schlüsse zu ziehen.
Investieren Sie jetzt in KI!
Wenn KI die Zukunft ist – dann ist die Zukunft Jetzt! Wenn Verantwortliche jetzt nicht in KI investieren, werden sie vom Wettbewerb überrundet! Das gilt für Konzerne wie für kleine und Mittelständische Unternehmen. Das Thema ist einfach zu groß, zu bedeutend, um es zu verschlafen. Andreas Renner richtet sich in dem bereits zitierten Buch auch an Beiräte und Aufsichtsräte: „Ist vom Topmanagement gar nichts zu hören über KI, gehört es zur „räterlichen Pflicht“ auf eine KI-Strategie zu drängen. […] Ein Management, das bei KI nicht aufwacht, schlummert vermutlich auch bei anderen wichtigen Themen im Dornröschenschlaf. Eine gute Gelegenheit, darüber nachzudenken, in welchen Firmen Sie zum Aufsichtsrat oder Beirat gehören möchten.“
Neueste Kommentare