27. Juli, 2024

KI

KI-Forscher fordern mehr Schutz für Whistleblower: Innovationsdrang vs. Transparenz

KI-Forscher fordern mehr Schutz für Whistleblower: Innovationsdrang vs. Transparenz

In einem jüngst veröffentlichten offenen Brief appelliert eine Gruppe von KI-Forschern, darunter Mitarbeiter des bekannten ChatGPT-Entwicklers OpenAI, an die Rechte der Öffentlichkeit, über potenzielle Risiken der KI-Technologie informiert zu werden. Die derzeitigen Whistleblower-Schutzmaßnahmen genügen nicht, erklären die Forscher, da sie im Wesentlichen auf illegale Praktiken abzielen, aber keine speziellen Vorschriften für Künstliche Intelligenz existieren. Einige Forscher äußern die berechtigte Angst vor Vergeltungsmaßnahmen, wie es in der Branche schon vorgekommen ist.

Die Wissenschaftler appellieren an Unternehmen mit fortgeschrittenen KI-Modellen, vier grundlegenden Prinzipien zu folgen. Eines davon ist, den Angestellten nicht zu verbieten, sich negativ über ihre Arbeitgeber zu äußern. Es wurde jüngst bekannt, dass OpenAI ehemaligen Mitarbeitenden damit gedroht hatte, ihre Aktienoptionen verfallen zu lassen, wenn sie die Firma öffentlich kritisieren würden. Sam Altman, CEO von OpenAI, entschuldigte sich und entfernte diese Klausel, von der er nach eigenen Angaben nichts gewusst hatte und die nie zur Anwendung kam.

Ein weiteres Anliegen im Brief ist die Etablierung eines Verfahrens, das es Mitarbeitenden ermöglicht, anonym Verwaltungsräte und Regulierungsbehörden über wahrgenommene Risiken der KI-Software zu informieren. Diese Personen sollten auch die Freiheit haben, an die Öffentlichkeit zu treten, wenn es keine internen Meldewege gibt.

Schon lange warnen einige KI-Experten, dass die rasante Entwicklung dieser Technologie zur Entwicklung autonomer Software führen könnte, die sich der menschlichen Kontrolle entzieht. Mögliche Folgen könnten die Verbreitung von Falschinformationen, massive Arbeitsplatzverluste und im schlimmsten Fall die Auslöschung der Menschheit sein. Aus diesem Grund arbeiten Regierungen daran, Richtlinien für die Entwicklung von KI-Software festzulegen. OpenAI, bekannt für seine wegweisende Software hinter ChatGPT, sticht in diesem Bereich besonders hervor. Eine Sprecherin von OpenAI betonte gegenüber der 'New York Times', dass das Unternehmen an eine wissenschaftliche Herangehensweise bei der Bewertung von Risiken glaubt.

Vier aktuelle und zwei ehemalige Mitarbeitende von OpenAI unterzeichneten den Brief anonym. Unter den sieben namentlich genannten Unterzeichnern sind fünf ehemalige OpenAI-Mitarbeiter und ein früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit bei DeepMind tätig ist und zuvor beim KI-Start-up Anthropic arbeitete, hob hervor, dass ihm bei seinen aktuellen und früheren Arbeitgebern nichts bekannt sei, vor dem er warnen möchte.