Damit soetwas passiert, muss seine solche KI ersteinmal aktiv von Menschen Programmiert werden.
Weiterhin muss dieser KI aktiv von Menschen Zugriff auf Mittel gegeben werden, mit der sie die Menschheit auslöschen kann.
Mal angenommen die Technologie entwickelt sich weiter und irgendeine verrückte Organisation schafft es tatsächlich eine AGI zu entwickeln, die zudem noch auch die Idee kommt die Menschheit auslöschen zu wollen. Was dann?
Tja, dann liegt die auf irgendeinem Server und macht... nichts.
Selbst mit Verbindung zum Internet ist bei jeder Firewall Ende. Und auch wenn wir das Szenario weiterspinnen und sagen die KI hat die Möglichkeit sich überall einzuhacken, dann ist spätestens dann Ende, wenn das Kabel gezogen wird.
Solch eine KI würde enorm viel Speicher und Rechenleistung benötigen, die könnte sich nicht einfach auf andere Rechner übertragen und vermehren/ausbreiten.
Das heisst auch die Steuerung von irgendwelchen Robotern alá Terminator funktioniert nicht.
Okay, spinnen wir noch weiter und sagen die KI schreibt Viren, die sie über das Internet verteilt und sagen wir Atomkraftwerke angreift. Schlimmstes Ergebnis wäre ein Ausfall aller Atomkraftwerke, aber keine Explosionen oder dergleichen, selbst bei einer Kernschmelze.
Und auch da -> Strom kappen und die Gefahr der KI/Viren ist ersteinmal gebannt.
Und spinnen wir man noch weiter und sagen aus irgendwelchen unerfindlichen Gründen schafft es die KI tatsächlich die Atomkraftwerke zu einem Super-GAU zu führen. Explodieren würden sie trotzdem nicht, das können sie schlichtweg nicht.
Es würde extrem viel Radioaktivität freigesetzt, die Menschen würden aus vielen Teilen der Erdie fliehen müssen oder sterben, aber ausgelöscht würde die Menschheit dadurch nicht.
Und da kommt die Krux, die KI braucht Strom. Und ohne Menschen, die Kraftwerke betreiben, geht der KI irgendwann der Strom aus.
Der Mensch kann ohne Strom überleben, die KI nicht. Die KI würde also zwangsläufig scheitern, denn der Strom geht vor dem Menschen zuneige.
Und egal wie schlau die KI ist und wie sehr sie sich selbst versorgen kann, irgendwann werden ihr die Rohstoffe ausgehen, um sich, bzw. die Stromversorgung instand zu halten.
Fazit: Würde jemand eine KI entwickeln wollen, um die Menschheit auszulöschen, müsste er so viele Dinge berücksichtigen und einplanen, dass andere Wege weitaus einfacher und effizienter wären.
Warum so einen riesigen Aufwand für eine selbsterhaltende KI machen, wenn es z.B. auch mit einer Reihe von Designer-Viren und -Giften getan wäre?