Angst vor Leaks: Apple verbietet Mitarbeitern Nutzung von ChatGPT und anderen KI-Tools

1
News Nadine Herzog - Autorin
Angst vor Leaks: Apple verbietet Mitarbeitern Nutzung von ChatGPT und anderen KI-Tools
Quelle: Apple

Nachdem versehentlich sensible Daten von Samsung durch die Nutzung von KI geleakt wurden, verbietet Apple die Nutzung solcher Technologien. Apple plant jedoch, eigene interne KI-Werkzeuge zu entwickeln.

Apple schließt sich der wachsenden Liste von Unternehmen an, die ChatGPT und andere generative KI-Tools von Drittanbietern für den unternehmensinternen Gebrauch verbieten. Laut einem Dokument, das vom Wall Street Journal eingesehen wurde, befürchtet Apple, dass Mitarbeiter, die diese Tools nutzen, versehentlich vertrauliche Informationen preisgeben könnten. Angesichts dessen, was im April bei Samsung passiert ist, als Mitarbeiter versehentlich dreimal den privaten Quellcode mit Hilfe von ChatGPT hochgeladen haben, ist es keine Überraschung, dass Apple dieses Risiko nicht eingehen möchte. Eine speziell von Apple genannte KI-Software, die für die Verwendung verboten ist, ist GitHub Copilot, ein KI-Tool, das einfachen Code generieren und schreiben kann. KI spart Programmierern somit viel Zeit. Das Problem besteht darin, dass die Daten, die von KI-Tools verwendet werden, auf externen Servern gespeichert werden, die zum Training mehrerer KI-Modelle verwendet werden, einschließlich solcher, die von anderen Unternehmen erstellt und betrieben werden.

Warum ein Nutzungsverbot?

Angenommen, ihr arbeitet an Code, der für eine streng geheime Apple AR-Brille bestimmt ist; das sind Informationen, die ihr nicht versehentlich an eine KI weitergeben möchtet, die von Konkurrenten wie Microsoft oder Google genutzt oder sogar betrieben wird. Der Schutz von herstellerspezifischen Informationen ist der Grund, warum Unternehmen wie Amazon oder Verizon die Nutzung von ChatGPT bisher verbieten.

OpenAI hat kürzlich die Datenschutzeinstellungen von ChatGPT aktualisiert, um Nutzern das Löschen und Deaktivieren ihres Chat-Verlaufs zu ermöglichen, um zu verhindern, dass diese Daten zur Schulung des Sprachmodells verwendet werden. Gemäß der Datenschutz-FAQs von OpenAI werden jedoch alle Unterhaltungen 30 Tage lang aufbewahrt, bevor sie endgültig gelöscht werden, um "Missbrauch zu überwachen" - die Zeitspanne soll nicht genutzt werden, um zusätzliches Training für das Sprachmodell durchzuführen.

Noch viel zu lernen im Umgang mit KI

In einer Konferenz zum Quartalsergebnis sagte Apple CEO Tim Cook, dass es "sehr wichtig ist, in der Herangehensweise sich solcher Dinge bewusst zu sein und dass eine Reihe von Fragen geklärt werden müssen", wenn es um den Einsatz von KI geht.

Außerdem beliebt bei PC-Games-Lesern

Gefahren von KI: Studenten verkaufen künstliche Nacktbilder auf Reddit

4
Zwei Studenten verkaufen via Reddit Nacktbilder einer fiktiven Person und werfen damit viele Fragen zu den Gefahren von KIs auf.

Italien verbietet ChatGPT aufgrund massiver Sicherheitsbedenken

2
Italien verbietet als erstes westliches Land Open AIs ChatGPT

Ähnlich wie Samsung arbeitet Apple angeblich an seiner eigenen internen KI, damit Mitarbeiter von der Effizienz dieser generativen KI-Tools profitieren können, ohne dabei die Geheimnisse des Unternehmens preiszugeben. Es ist auch eine gute Idee, Zwei-Faktor-Authentifizierung für eure Konten zu verwenden, um auf der sicheren Seite zu sein und eure persönlichen Daten zu schützen. Egal ob Firmendaten oder private Daten - Datenschutz ist heutzutage wichtiger denn je.

Quelle: PC Gamer

    • Kommentare (1)

      Zur Diskussion im Forum
      • Von mav0r NPC
        Danke für eine nicht clickbaity Überschrift.
      • Von mav0r NPC
        Danke für eine nicht clickbaity Überschrift.
      Direkt zum Diskussionsende
  • Print / Abo
    Apps
    PC Games 06/2024 PCGH Magazin 06/2024 PC Games MMore 06/2024 play5 06/2024 Games Aktuell 01/2024 N-Zone 06/2024
    PC Games 06/2024 PCGH Magazin 07/2024 play5 07/2024 PC Games MMORE Computec Kiosk