Viele Unternehmen befassen sich mit der Frage, wie sie KI-Tools wie ChatGPT nutzen können. Sie denken dabei nicht daran, dass damit auch potenzielle Gefahren verbunden sind. Worauf Sie achten sollten, erfahren Sie in dieser Aufzeichnung.
Sprecher
Jens Egger
Senior Sales Engineer, Forcepoint Deutschland GmbH
Martin Seiler
Heise Business Services
Kaum ein Thema wird derzeit in der IT so intensiv diskutiert wie künstliche Intelligenz. Die Entwicklung in diesem Bereich hat inzwischen ein enorm hohes Tempo aufgenommen, und daher stellen viele Unternehmen bereits Überlegungen an, wie sie von entsprechenden KI-Tools profitieren und auf welche Weise sie diese in ihre Prozesse einbinden können.
Dabei wird ein Aspekt häufig nicht beachtet: Diese Tools können auch ein Sicherheitsrisiko darstellen. Unternehmen müssen sicherstellen, dass Mitarbeiter keine sensiblen Unternehmensinformationen mit ChatGPT, Bard und andere Generative KI-Technologien teilen können und so das Risiko eines ungewollten Datenabflusses erhöht wird.
Was ist zu tun?
Klassische Web-Security- sowie Firewall-Lösungen setzen auf DNS- und URL-Filterung sowie die Klassifizierung von Webseiten. Dadurch können die neuen KI-Services grundsätzlich geblockt werden, allerdings wird dadurch die Ausschöpfung des Potentials von Generativen KI-Technologien verhindert.
Um dieses große Potential auf sichere Art und Weise zu nutzen, sollte zum einen gesteuert werden, wer im Unternehmen Zugriff auf KI-Services erhalten darf. Zum anderen sollten die Daten einzeln automatisch analysiert werden, die mit der KI-Technologie geteilt werden sollen, um sicherzustellen, dass keine sensiblen Informationen das Unternehmen ungewollt verlassen. Hier stehen sowohl Daten im Mittelpunkt, die als File hochgeladen werden als auch die Informationen, die über Copy-Paste im Chat mit der KI geteilt werden.
Wie das Ganze auch bei Ihnen einfach und sicher funktioniert, erläutert Jens Egger von Forcepoint in dieser Webcast-Aufzeichnung. Moderator der Sendung ist Martin Seiler von Heise Business Services.