Ilya Sutskever und Altman sowie andere von OpenAI  Bild © Ilya SutskeverIlya Sutskever und Altman sowie andere von OpenAI (Bild © Ilya Sutskever)

Safe Superintelligence Auftrag und Vision

Die Mission von SSI ist einzigartig und ehrgeizig: die Entwicklung von Superintelligenz mit dem Fokus auf Sicherheit. „Wir werden eine sichere Superintelligenz mit einem Fokus, einem Ziel und einem Produkt verfolgen“, erklärte Sutskever auf der Social-Media-Plattform X. Das Unternehmen will mit einem engagierten und erfahrenen Team revolutionäre Durchbrüche erzielen.

Safe Superintelligence: Team und Expertise

Neben Sutskever arbeiten Daniel Levy, ehemaliger Leiter des Optimierungsteams bei OpenAI, und Daniel Gross, ein KI-Investor, der zuvor bei Apple an Projekten zum maschinellen Lernen gearbeitet hat, an diesem Projekt. Das Trio hat sich zum Ziel gesetzt, die KI-Technologie voranzutreiben und gleichzeitig ihre Sicherheit zu gewährleisten.

Sutskever und mehrere Kollegen traten im Mai aus OpenAI aus. Sein Austritt erfolgte, nachdem er an der Absetzung des OpenAI-CEOs Sam Altman beteiligt war und schließlich zurückkehrte. Während Sutskever ohne öffentliche Beschwerden ging, äußerte Jan Leike aus dem Superalignment-Team Bedenken, dass OpenAI der Produktentwicklung Vorrang vor der Sicherheit einräumt. Leike wechselte später zu dem auf KI-Sicherheit spezialisierten Unternehmen Anthropic.

Superintelligenz vs. AGI

Während OpenAI auf AGI (künstliche allgemeine Intelligenz) hinarbeitet, die darauf abzielt, die menschliche Intelligenz bei verschiedenen Aufgaben zu erreichen, ist es das Ziel von SSI, dies zu übertreffen und Superintelligenz zu erreichen. Diese fortgeschrittene Form der KI, die oft auch als künstliche Superintelligenz (ASI) bezeichnet wird, soll die kognitiven Fähigkeiten des Menschen deutlich übertreffen.

Das Konzept der Superintelligenz ist immer noch hypothetisch und umstritten. Kritiker, darunter der Professor Pedro Domingos von der University of Washington, bezweifeln die Machbarkeit und Praktikabilität einer solchen fortgeschrittenen KI und deren Kontrolle. Die Skepsis rührt daher, dass es schwierig ist, menschliche Intelligenz zu definieren und zu quantifizieren, geschweige denn sie zu übertreffen.

Trotz der Skepsis ist Sutskever entschlossen, die Entwicklung voranzutreiben. Er stellt sich eine Zukunft vor, in der ein riesiges, autonomes Datenzentrum fortschrittliche Technologien sicher entwickelt. „Wir reden hier von einem riesigen Super-Rechenzentrum, das autonom Technologien entwickelt“, sagte Sutskever gegenüber Bloomberg. "Wir wollen zur Sicherheit dieser Technologie beitragen.

Safe Superintelligence, Inc. ist ein mutiger Schritt zur sicheren Entwicklung fortschrittlicher KI. Mit einem engagierten Team und einem klaren Fokus zielt SSI darauf ab, die komplexen Herausforderungen der Superintelligenz zu meistern und neue Möglichkeiten für die KI-Entwicklung zu bieten, wobei Sicherheit und ethische Überlegungen im Vordergrund stehen.