18.07.2018 
150 Tech-Firmen geloben friedliche Nutzung Künstlicher Intelligenz

Reguliert uns endlich!

Von
Boston-Dynamics BigDog-Roboter: Wissenschaftler warnen vor der Kombination von Künstlicher Intelligenz mit autonomen Waffensystemen
DPA
Boston-Dynamics BigDog-Roboter: Wissenschaftler warnen vor der Kombination von Künstlicher Intelligenz mit autonomen Waffensystemen

Es ist eine Allianz mit einem für Technologiekonzerne eher untypischen Anliegen. Die ungewohnte Einigkeit zeigt aber die Dringlichkeit der Forderung. Mehr als 2400 Forscher und Mitarbeiter von 150 Tech-Firmen haben die Regierungen der Welt aufgefordert, endlich klare Regeln für die Entwicklung und Verwendung künstlich-intelligenter tödlicher Waffensysteme zu schaffen.

Angesichts des regulatorischen Vakuumsversprachen sie, sich selbst nicht an der Entwicklung tödlicher KI-Waffen zu beteiligen. Und forderten in der vom Bostoner "The Future of Life Institute" angeregten Gelübde unter anderem Politik und Technologiekonzerne auf, sich ihrem Versprechen anzuschließen.

Unter den Unterzeichnern befinden sich auch der deutsche Informatiker Jürgen Schmidhuber, drei Mitgründer des sich mittlerweile in Google-Besitz befindendem AI-Unternehmens Deep Mind und Space X-Gründer Elon Musk, der bereits in der Vergangenheit eindringlich vor dem Missbrauch der Technologie gewarnt hatte.

Drohnen, bei denen letztlich Menschen die Entscheidung über die Tötung anderer Menschen übernehmen, nehmen die Wissenschaftler bei ihrem Versprechen dabei explizit aus. Es bezieht sich auf Waffen, die autonom Menschen identifizieren, sich auf sie richten und diese töten - ohne dass Menschen in den Prozess eingreifen oder diesen autorisieren.

Derartige Waffen, die Menschen die Schwierigkeit, das Risiko und die Verantwortung für das Töten abnähmen, drohten in Verbindung mit Überwachung und Datensystemen zu "mächtigen Instrumenten von Gewalt und Unterdrückung" zu werden, mahnen die Forscher. Zudem könne ihre Entwicklung ein Waffenwettrüsten auslösen, dessen die globale Ordnungspolitik nicht mehr Herr werden könne.

1 | 2

Mehr zum Thema