Abhängig von der Größe des Unternehmens kann es schwierig werden, zu verhindern, dass da jemand den Source Code reinhackt und sich z. B. Unit-Tests dafür wünscht. Das ist ein ziemliches Sicherheitsrisiko.
Ein prinzipiellen Blocken finde ich okay bis man einen guten Weg für den Umgang mit ChatGPT gefunden hat und es eingeschränkt erlaubt.
Ich verwende teilweise ChatGPT über meinen privaten Account. Es hilft hie und da beim programmieren. Die Informationssicherheit spielt in meinem Unternehmen leider kaum eine Rolle. Habe schon mehrfach auf solche Themen hingewiesen, aber es bringt halt kein Geld. Allerdings sind wir jetzt auch nicht gerade in einem kritischen Umfeld. Fände es mal spannend wie das die grösseren Player so handhaben mit AI.
Im Großkonzern gab's gleich am Anfang der ChatGPT-Welle einen Arbeitskreis, der dann in einer großen Ausarbeitungsrunde mit Abstimmungen in der Führungsetage ein PDF mit sogenannten "Ethischen Richtlinien" produziert und an alle Mitarbeiter geschickt hat. Die inhaltliche Kurzfassung dieser ist in etwa wie folgt:
Es gibt ja, z.B. von Azure, Lösungen, die mit dem Data Lake deines Unternehmens "trainieren". Dementsprechend die Daten, wenn ich das richtig verstanden habe auch in deinem Tenant bleiben.
Gegenfrage: gibt es bei OpenAI inzwischen Business Verträge die sicherstellen das Informationen aus Konversationen nicht ins Training des Modells einfließen oder sonstwo geteilt werden?
einer der Hauptblocker weshalb das bei uns niemand nutzt (neben den Halluzinationen) ist eben das wir keine Firmengeheimnisse oder sensitiven Kundendaten an andere Firmen leaken wollen.
Bei der Nutzung über Azure gibt es keinen Rückfluss der Daten ins Modell. Zumindest haben auf der Basis unsere Data Privacy und Data Security Leute den Testbetrieb freigegeben.