Zum Hauptinhalt springen

Sichere Nutzung von ChatGPT und anderen generativen KI-Tools

Webcast-Aufzeichnung vom 30.11.23

Forcepoint Deutschland GmbH
Firma: Forcepoint Deutschland GmbH
Sprache: Deutsch
Dauer: 60 Minuten
Erscheinungsjahr: 2023
Besonderheit: registrierungspflichtig Agenda herunterladen
Exklusiv
für Mitglieder

Premium: Einloggen und anschauen

Viele Unternehmen befassen sich mit der Frage, wie sie KI-Tools wie ChatGPT nutzen können. Sie denken dabei nicht daran, dass damit auch potenzielle Gefahren verbunden sind. Worauf Sie achten sollten, erfahren Sie in dieser Aufzeichnung.

Sprecher

Jens Egger

Jens Egger

Senior Sales Engineer, Forcepoint Deutschland GmbH

Jens Egger ist ein erfahrener technischer Senior Sales Engineer und arbeitet seit vielen Jahren in der Cyber Security Branche. Er verfügt über eine große technische Expertise und fundiertes Wissen in den Bereichen NextGen Firewall, Information & Data Protection sowie Threat Protection und Defense.
Martin Seiler

Martin Seiler

Heise Business Services

Martin Seiler befasste sich als IT-Redakteur bei der Computerwoche viele Jahre lang mit Themen wie Netzwerke, Telekommunikation oder Security. 2006 wechselte er in den Eventbereich von IDG, für den er Fachveranstaltungen unterschiedlichster Art wie Seminare, Konferenzen, Roadshows und Webcasts entwickelte, organisierte und moderierte. Seit 2010 arbeitet Martin Seiler für Heise Business Services.

Kaum ein Thema wird derzeit in der IT so intensiv diskutiert wie künstliche Intelligenz. Die Entwicklung in diesem Bereich hat inzwischen ein enorm hohes Tempo aufgenommen, und daher stellen viele Unternehmen bereits Überlegungen an, wie sie von entsprechenden KI-Tools profitieren und auf welche Weise sie diese in ihre Prozesse einbinden können.

Dabei wird ein Aspekt häufig nicht beachtet: Diese Tools können auch ein Sicherheitsrisiko darstellen. Unternehmen müssen sicherstellen, dass Mitarbeiter keine sensiblen Unternehmensinformationen mit ChatGPT, Bard und andere Generative KI-Technologien teilen können und so das Risiko eines ungewollten Datenabflusses erhöht wird.

Was ist zu tun?

Klassische Web-Security- sowie Firewall-Lösungen setzen auf DNS- und URL-Filterung sowie die Klassifizierung von Webseiten. Dadurch können die neuen KI-Services grundsätzlich geblockt werden, allerdings wird dadurch die Ausschöpfung des Potentials von Generativen KI-Technologien verhindert.

Um dieses große Potential auf sichere Art und Weise zu nutzen, sollte zum einen gesteuert werden, wer im Unternehmen Zugriff auf KI-Services erhalten darf. Zum anderen sollten die Daten einzeln automatisch analysiert werden, die mit der KI-Technologie geteilt werden sollen, um sicherzustellen, dass keine sensiblen Informationen das Unternehmen ungewollt verlassen. Hier stehen sowohl Daten im Mittelpunkt, die als File hochgeladen werden als auch die Informationen, die über Copy-Paste im Chat mit der KI geteilt werden.

Wie das Ganze auch bei Ihnen einfach und sicher funktioniert, erläutert Jens Egger von Forcepoint in dieser Webcast-Aufzeichnung. Moderator der Sendung ist Martin Seiler von Heise Business Services.

Sichere Nutzung von ChatGPT und anderen generativen KI-Tools

Webcast-Aufzeichnung vom 30.11.23

Inhaltstyp: Webcast
Forcepoint Deutschland GmbH