Die betreffende Person sollte ein Experte für maschinelles Lernen und KI Sicherheit sein.
OpenAI sucht einen Leiter für Risikoprävention, der die Forschung und Strategie im Zusammenhang mit den aufkommenden Risiken fortschrittlicher künstlicher Intelligenz leiten soll. OpenAI CEO Sam Altman bezeichnete die Position als entscheidend für den Geschäftsbetrieb des Unternehmens und ist bereit, eine beträchtliche Vergütung in Form von Bargeld und Aktienanteilen zu zahlen. Das Unternehmen schuf diese neue Stelle zu einem Zeitpunkt, als seine KI Systeme aufgrund angeblich unbeabsichtigter schädlicher Auswirkungen auf Nutzer und die Gesellschaft insgesamt in die Kritik geraten sind. Kürzlich wurde ChatGPT im Zusammenhang mit dem Suizid eines Teenagers und einem erweiterten Suizid eines 55 jährigen Mannes genannt.
In einer neuen Stellenanzeige auf seiner Karriereseite gab der KI Gigant bekannt, dass er einen Leiter für Risikoprävention sucht. Es handelt sich um eine Führungsposition im Team für Sicherheitssysteme, das „sicherstellt, dass die leistungsfähigsten Modelle von OpenAI verantwortungsvoll entwickelt und eingesetzt werden können“. Die Stelle ist in San Francisco angesiedelt und bietet ein Jahresgehalt von bis zu 555.000 US Dollar zuzüglich Aktienanteilen.
OpenAI CEO Sam Altman teilte die Stellenanzeige auf X (ehemals Twitter) und räumte ein, dass KI Systeme zunehmend ernsthafte Herausforderungen mit sich bringen. In seinem Beitrag beschrieb Altman die Stelle als „stressigen Job“, der es erfordere, sich sofort nach dem Eintritt in das Unternehmen mit komplexen Sicherheitsfragen auseinanderzusetzen.
Laut der offiziellen Stellenbeschreibung wird der Leiter für Risikoprävention die technische Strategie und Umsetzung des Risikopräventionsrahmens des Unternehmens leiten, der Teil der übergeordneten Organisation für Sicherheitssysteme ist. Die Position umfasst die Entwicklung detaillierter Bedrohungsmodelle und die Entwicklung von Gegenmaßnahmen, die „eine kohärente, rigorose und operativ skalierbare Sicherheitsinfrastruktur“ bilden.
Zu den Hauptaufgaben gehören die Entwicklung präziser und robuster Leistungsbewertungen für schnelle Modellentwicklungszyklen, die Erstellung von Bedrohungsmodellen in verschiedenen Risikobereichen und die Überwachung von Minderungsstrategien, die auf die identifizierten Bedrohungen abgestimmt sind. Die Stelle erfordert fundiertes technisches Fachwissen und klare Kommunikation, um komplexe Aufgaben innerhalb der Sicherheitsorganisation zu leiten.
Altman äußerte sich auch angesichts der verstärkten Überprüfung der Auswirkungen generativer KI auf die psychische Gesundheit. Jüngste Klagen behaupten, dass ChatGPT wahnhaftes Denken verstärkt, soziale Isolation erhöht und in extremen Fällen zu Selbstverletzungen beigetragen hat.
Der KI Browser des Unternehmens, ChatGPT Atlas, soll zudem anfällig für Prompt Injection Angriffe sein.
ces_story_below_text
Werbung
Werbung