Angst vor Leaks: Apple verbietet Mitarbeitern Nutzung von ChatGPT und anderen KI-Tools
Nachdem versehentlich sensible Daten von Samsung durch die Nutzung von KI geleakt wurden, verbietet Apple die Nutzung solcher Technologien. Apple plant jedoch, eigene interne KI-Werkzeuge zu entwickeln.
Apple schließt sich der wachsenden Liste von Unternehmen an, die ChatGPT und andere generative KI-Tools von Drittanbietern für den unternehmensinternen Gebrauch verbieten. Laut einem Dokument, das vom Wall Street Journal eingesehen wurde, befürchtet Apple, dass Mitarbeiter, die diese Tools nutzen, versehentlich vertrauliche Informationen preisgeben könnten. Angesichts dessen, was im April bei Samsung passiert ist, als Mitarbeiter versehentlich dreimal den privaten Quellcode mit Hilfe von ChatGPT hochgeladen haben, ist es keine Überraschung, dass Apple dieses Risiko nicht eingehen möchte. Eine speziell von Apple genannte KI-Software, die für die Verwendung verboten ist, ist GitHub Copilot, ein KI-Tool, das einfachen Code generieren und schreiben kann. KI spart Programmierern somit viel Zeit. Das Problem besteht darin, dass die Daten, die von KI-Tools verwendet werden, auf externen Servern gespeichert werden, die zum Training mehrerer KI-Modelle verwendet werden, einschließlich solcher, die von anderen Unternehmen erstellt und betrieben werden.
Warum ein Nutzungsverbot?
Angenommen, ihr arbeitet an Code, der für eine streng geheime Apple AR-Brille bestimmt ist; das sind Informationen, die ihr nicht versehentlich an eine KI weitergeben möchtet, die von Konkurrenten wie Microsoft oder Google genutzt oder sogar betrieben wird. Der Schutz von herstellerspezifischen Informationen ist der Grund, warum Unternehmen wie Amazon oder Verizon die Nutzung von ChatGPT bisher verbieten.
OpenAI hat kürzlich die Datenschutzeinstellungen von ChatGPT aktualisiert, um Nutzern das Löschen und Deaktivieren ihres Chat-Verlaufs zu ermöglichen, um zu verhindern, dass diese Daten zur Schulung des Sprachmodells verwendet werden. Gemäß der Datenschutz-FAQs von OpenAI werden jedoch alle Unterhaltungen 30 Tage lang aufbewahrt, bevor sie endgültig gelöscht werden, um "Missbrauch zu überwachen" - die Zeitspanne soll nicht genutzt werden, um zusätzliches Training für das Sprachmodell durchzuführen.
Noch viel zu lernen im Umgang mit KI
In einer Konferenz zum Quartalsergebnis sagte Apple CEO Tim Cook, dass es "sehr wichtig ist, in der Herangehensweise sich solcher Dinge bewusst zu sein und dass eine Reihe von Fragen geklärt werden müssen", wenn es um den Einsatz von KI geht.
Außerdem beliebt bei PC-Games-Lesern
Gefahren von KI: Studenten verkaufen künstliche Nacktbilder auf Reddit
4Zwei Studenten verkaufen via Reddit Nacktbilder einer fiktiven Person und werfen damit viele Fragen zu den Gefahren von KIs auf.Italien verbietet ChatGPT aufgrund massiver Sicherheitsbedenken
2Italien verbietet als erstes westliches Land Open AIs ChatGPTÄhnlich wie Samsung arbeitet Apple angeblich an seiner eigenen internen KI, damit Mitarbeiter von der Effizienz dieser generativen KI-Tools profitieren können, ohne dabei die Geheimnisse des Unternehmens preiszugeben. Es ist auch eine gute Idee, Zwei-Faktor-Authentifizierung für eure Konten zu verwenden, um auf der sicheren Seite zu sein und eure persönlichen Daten zu schützen. Egal ob Firmendaten oder private Daten - Datenschutz ist heutzutage wichtiger denn je.
Quelle: PC Gamer