BLOG

Der Einsatz generativer KI-Tools am Arbeitsplatz erfordert mehr Sicherheit

Rachael Shah Miniatur
Rachael Shah
Veröffentlicht am 22. August 2023

Generative KI ist wie dieses eine wirklich glänzende Objekt, von dem niemand seine Augen abwenden kann.

Fast alle Unternehmen weltweit sind begeistert von dem Potenzial generativer KI-Tools für die Transformation ihres Geschäfts – und das aus gutem Grund.

Generative KI, eine Form des maschinellen Lernens, die als Reaktion auf Anfragen in natürlicher Sprache Inhalte wie Texte und Bilder erstellt, ist eine bahnbrechende Technologie. Von der Produktivitätssteigerung bis zur Verbesserung der Personalisierung bieten generative KI-Tools eine Reihe von Vorteilen.

In einer aktuellen Umfrage von Gartner gaben beispielsweise mehr als 2.500 Führungskräfte an, dass Kundenerfahrung und -bindung (38 %) der Hauptzweck ihrer Investitionen in generative KI seien. Darauf folgen andere Bereiche wie Umsatzwachstum (26 %), Kostenoptimierung (17 %) und Geschäftskontinuität (7 %).

Darüber hinaus zeigten in einer separaten Umfrage von IBM unter 3.000 CEOs 69 % der befragten CEOs, dass generative KI in ihren Organisationen umfassende Vorteile bietet. Allerdings geben nur 30 % der Führungskräfte außerhalb der CEO-Position an, dass ihr Unternehmen bereit sei, generative KI verantwortungsvoll einzuführen.

Seien wir ehrlich: Das ist alarmierend. Weniger als ein Drittel der Führungskräfte geben an, dass ihr Unternehmen bereit ist, generative KI verantwortungsvoll einzuführen.

Man ist leicht überwältigt von all den positiven Vorteilen, die man potenziell durch den Einsatz generativer KI-Tools erzielen könnte. Aber vergessen wir nicht: Der Einsatz generativer KI-Tools kann große Risiken und Herausforderungen mit sich bringen.

Angesichts der rasanten Entwicklung der generativen KI können Unternehmen schnell in Schwierigkeiten geraten, wenn sie nicht darauf achten, wie ihre Mitarbeiter die Tools der generativen KI nutzen und welche Daten in die Schnittstellen der generativen KI eingespeist werden.

Hier sind nur einige der vielen Möglichkeiten, wie generative KI eine positive, nützliche Erfahrung abrupt in ein kostspieliges und negatives Sicherheitsproblem verwandeln kann:

  1. Weitergabe vertraulicher Unternehmensdaten.
    Sie haben vielleicht gehört oder gelesen, dass Samsung- Mitarbeiter versehentlich Code in den Chatbot ChatGPT von Open AI hochgeladen haben. Dadurch wurden nicht nur vertrauliche Daten offengelegt, sondern für Samsung wurde es auch zu einem weltweiten PR-Albtraum großen Ausmaßes. Und wahrscheinlich ist Samsung nicht das einzige Unternehmen, dem dies passiert ist oder passieren könnte. Als nächstes könnte Ihr Unternehmen dran sein.

  2. Verbreitung von Fehlinformationen und Vorurteilen.
    Generative KI-Tools wie ChatGPT basieren auf großen Sprachmodellen (LLMs). Und LLMs werden anhand von Datensätzen aus Artikeln, Websites und allem dazwischen trainiert – einschließlich schlechter und falscher Informationen. Man kann leicht der Illusion erliegen und glauben, dass Tools für generative KI keine falschen Informationen produzieren oder Voreingenommenheit verbreiten, und diese dann in Kampagnen verwenden oder als Grundlage für eigene Annahmen verwenden. Doch ehe Sie sich versehen, verschwimmt die Grenze zwischen Wahrheit und Unwahrheit – und mit ihr auch Ihr Ruf. Darüber hinaus sind die von generativen KI-Chatbots produzierten Voreingenommenheiten und Fehlinformationen nicht einmal ansatzweise das Problem, das durch KI-Halluzinationen entsteht!

  3. Missbrauch personenbezogener Daten (PII).
    PII können während Interaktionen mit generativen KI-Tools gesammelt werden. Es liegt an den Unternehmen hinter diesen Tools, strenge Datenschutzmaßnahmen einzuhalten. Wenn dies nicht der Fall ist , müssen Sie möglicherweise mit der Übernahme Ihres Kontos kämpfen. Oder Sie geraten in große rechtliche Schwierigkeiten und Auseinandersetzungen mit Ihren Kunden, wenn böswillige Akteure an deren personenbezogene Daten gelangen.

Glücklicherweise unternehmen viele Organisationen Schritte, um sichere Praktiken aufrechtzuerhalten. Mehrere Unternehmen bieten Schulungen zu den positiven und negativen Aspekten der generativen KI an. Oder sie ermutigen ihre Mitarbeiter, verantwortungsvoll zu forschen und zu experimentieren. Andere haben generative KI-Richtlinien zur Anerkennung und erforderlichen Anleitung der Mitarbeiter entwickelt.

Diese Maßnahmen haben sicherlich ihre Berechtigung, doch die Popularität, Komplexität und rasante Entwicklung generativer KI-Tools erfordern mehr Sicherheit. Außerdem kann es immer zu menschlichen Fehlern kommen.

Ich bin sicher, dass Sie es schon einmal gehört haben. Oder vielleicht oft: Was Sie nicht sehen, kann Ihnen schaden. Und wenn es um den Einsatz generativer KI-Tools am Arbeitsplatz geht, trifft dies voll und ganz zu. Mangelndes Bewusstsein kann dazu führen, dass Ihr Unternehmen den Kürzeren zieht.

Um sich vor den Gefahren zu schützen, die der Einsatz generativer KI am Arbeitsplatz mit sich bringt, müssen Unternehmen einen Zero-Trust- Ansatz verfolgen. Denken Sie daran, dass der Grundsatz von Zero Trust lautet: „Vertraue niemals.“ Immer überprüfen.“ Und eine Schlüsselstrategie der Zero-Trust-Sicherheit, die Sie heute priorisieren sollten, ist die Erkennung des Zugriffs auf generative KI-Tools.

Durch die Verbesserung der Transparenz und fein abgestuften Kontrolle darüber, wie Mitarbeiter generative KI-Tools bei der Arbeit nutzen, werden Sicherheitsteams in die Lage versetzt, potenzielle Risiken zu erkennen und zu managen. Dies hilft Organisationen:

  1. Schützen Sie Daten, PII, Code, geistiges Eigentum (IP) und mehr.
  2. Aktivieren und wenden Sie Richtlinien an, die die Unternehmensrichtlinien unterstützen.
  3. Schützen Sie sie vor einem absichtlichen oder versehentlichen Missbrauch generativer KI-Tools.

Während sich die Landschaft der generativen KI weiterhin rasant entwickelt, können Unternehmen mit einem Zero-Trust-Sicherheitsframework, das eine Erkennung generativer KI-Tools ermöglicht, beruhigt sein.

Weitere Informationen dazu, wie F5 Ihnen dabei helfen kann, potenzielle Risiken beim Einsatz generativer KI-Tools am Arbeitsplatz zu mindern, finden Sie in diesem Artikel zu F5 BIG-IP SSL Orchestrator DevCentral .