https://bodybydarwin.com
Slider Image

Kann KI unserer Kontrolle entkommen und uns zerstören?

2020

"Es begann vor dreieinhalb Milliarden Jahren in einer Lache aus Dreck, als ein Molekül eine Kopie von sich selbst anfertigte und so zum ultimativen Vorfahren allen irdischen Lebens wurde. Es begann vor vier Millionen Jahren, als die Gehirnvolumina in der Erde rapide anstiegen Hominidenlinie Vor fünfzigtausend Jahren mit dem Aufstieg des Homo Sapiens Vor zehntausend Jahren mit der Erfindung der Zivilisation Vor fünfhundert Jahren mit der Erfindung der Druckmaschine Vor fünfzig Jahren mit der Erfindung des Computers In weniger als dreißig Jahren Jahre wird es enden. "

Jaan Tallinn stieß 2007 in einem Online-Aufsatz mit dem Titel "Staring into the Singularity" auf diese Worte. Das "es" ist die menschliche Zivilisation. Die Menschheit würde aufhören zu existieren, prognostizierte der Verfasser des Aufsatzes mit der Entstehung der Superintelligenz oder KI, die den menschlichen Intellekt in einer Vielzahl von Bereichen übertrifft.

Tallinn, ein in Estland geborener Computerprogrammierer, hat einen Hintergrund in Physik und die Neigung, sich dem Leben wie einem großen Programmierproblem zu nähern. 2003 war er Mitbegründer von Skype und entwickelte das Backend für die App. Er zahlte seine Aktien ein, nachdem eBay sie zwei Jahre später gekauft hatte, und jetzt suchte er nach einer Möglichkeit, etwas zu tun. "Staring into the Singularity" kombiniert Computercode, Quantenphysik und Calvin- und Hobbes- Zitate. Er war süchtig.

Bald stellte Tallinn fest, dass der Autor des Aufsatzes, der Autodidakt Eliezer Yudkowsky, mehr als 1.000 Artikel und Blog-Beiträge verfasst hatte, von denen viele der Superintelligenz gewidmet waren. Tallinn schrieb ein Programm, um Yudkowskys Schriften aus dem Internet zu entfernen, chronologisch zu ordnen und sie für sein iPhone zu formatieren. Dann verbrachte er den größten Teil eines Jahres damit, sie zu lesen.

Der Begriff "künstliche Intelligenz oder die Simulation von Intelligenz in Computern oder Maschinen" wurde bereits 1956, nur ein Jahrzehnt nach der Entwicklung der ersten elektronischen Digitalcomputer, geprägt. Die Hoffnung auf dieses Gebiet war zunächst groß, aber in den 1970er Jahren, als frühe Vorhersagen kamen Als Tallinn Yudkowskys Aufsätze entdeckte, erlebte die KI eine Renaissance: Wissenschaftler entwickelten KIs, die sich in bestimmten Bereichen auszeichneten, beispielsweise beim Schachspielen, beim Reinigen des Küchenbodens und beim Erkennen der menschlichen Sprache (2007 war der durchschlagende Sieg von IBMs Watson bei " Jeopardy!" Noch vier Jahre entfernt, während der Triumph von Goof DeepMinds AlphaGo acht Jahre entfernt war.) Solche "engen" KIs, wie sie genannt werden, übermenschliche Fähigkeiten haben, aber nur in ihren spezifischen Dominanzbereichen: Eine schachspielende KI kann den Boden nicht aufräumen oder Sie von Punkt A zu Punkt B bringen von Fähigkeiten in einer Einheit Mehr d arkly, es könnte auch Daten verwenden, die von Smartphone-toten Menschen generiert wurden, um soziale Manipulationen zu übertreffen.

Nach dem Lesen von Yudkowskys Artikeln war Tallinn davon überzeugt, dass Superintelligenz zu einer Explosion oder einem „Ausbruch“ der KI führen könnte, die die menschliche Existenz bedrohen könnte, und dass ultraschnelle KIs unseren Platz auf der Evolutionsleiter einnehmen werden und dominiere uns so, wie wir jetzt Affen dominieren. Oder, noch schlimmer, vernichte uns.

Nach Abschluss des letzten Aufsatzes schoß Tallinn eine E-Mail an Yudkowsky ab - genau wie sein Stil. »Ich bin jaan, einer der Gründungsingenieure von Skype«, schrieb er. Irgendwann kam er auf den Punkt: „Ich stimme zu, dass es eine der Hauptaufgaben der Menschheit ist, sich darauf vorzubereiten, dass die allgemeine KI die menschliche Intelligenz übersteigt.“ Er wollte helfen. Als er kurz darauf zu anderen Treffen in die Bay Area flog, traf er Yudkowsky bei einer Panera Bread in Millbrae, Kalifornien, in der Nähe seines Wohnortes. Ihr Treffen dauerte vier Stunden. "Er hat die zugrunde liegenden Konzepte und Details wirklich verstanden", erinnert sich Yudkowsky. »Das ist sehr selten.« Danach schrieb Tallinn einen Scheck über 5.000 Dollar an das Singularity Institute for Artificial Intelligence, eine gemeinnützige Organisation, an der Yudkowsky als wissenschaftlicher Mitarbeiter tätig war. (Die Organisation hat ihren Namen 2013 in Machine Intelligence Research Institute (MIRI) geändert.) Seitdem hat Tallinn mehr als 600.000 US-Dollar zur Verfügung gestellt.

Die Begegnung mit Yudkowsky brachte Tallinn zum Ziel, ihn auf eine Mission zu schicken, um uns vor unseren eigenen Kreationen zu retten. Während er sich mit anderen Theoretikern und Informatikern über das Thema austauschte, begann er ein Leben auf Reisen und hielt weltweit Vorträge über die Bedrohung durch die Superintelligenz. Meistens fing er jedoch an, Forschungsarbeiten zu Methoden zu finanzieren, die der Menschheit einen Ausweg bieten könnten: die sogenannte freundliche KI. Das bedeutet nicht, dass eine Maschine oder ein Agent besonders gut über das Wetter plaudern kann oder dass sie sich die Namen Ihrer Kinder merkt, obwohl eine superintelligente KI möglicherweise in der Lage ist, beides zu tun. Es bedeutet nicht, dass es durch Altruismus oder Liebe motiviert ist. Ein verbreiteter Irrtum ist die Annahme, dass KI menschliche Triebe und Werte hat. "Freundlich" bedeutet viel grundlegenderes: Die Maschinen von morgen werden uns nicht auslöschen, um ihre Ziele zu erreichen.

Neun Jahre nach seinem Treffen mit Yudkowsky geht Tallinn zu mir zum Essen in den Speisesaal des Jesus College der Universität Cambridge. Der kirchliche Raum ist mit Buntglasfenstern, Goldleisten und Ölgemälden von Männern in Perücken geschmückt. Tallinn sitzt an einem schweren Mahagonitisch und trägt das lässige Gewand von Silicon Valley: schwarze Jeans, T-Shirt, Leinenschuhe. Eine gewölbte Holzdecke erstreckt sich hoch über seinem grau-blonden Haarschopf.

Mit 46 Jahren ist Tallinn in gewisser Weise Ihr technischer Unternehmer. Er glaubt, dass er dank der Fortschritte in der Wissenschaft (und vorausgesetzt, die KI zerstört uns nicht) noch viele Jahre leben wird. Seine Sorge um die Superintelligenz ist in seiner Kohorte weit verbreitet. Peter Thiels Stiftung, Mitbegründer von PayPal, hat MIRI 1, 6 Millionen US-Dollar zur Verfügung gestellt. 2015 spendete Elon Musk, Gründer von Tesla, 10 Millionen US-Dollar an das Future of Life Institute, eine Organisation für Technologiesicherheit in Cambridge, Massachusetts. Tallinns Einstieg in diese verdünnte Welt fand in den 1980er Jahren hinter dem Eisernen Vorhang statt, als der Vater eines Klassenkameraden mit einem Regierungsjob einigen klugen Kindern Zugang zu Großrechnern verschaffte. Nach der Unabhängigkeit Estlands gründete er eine Videospielfirma. Heute lebt Tallinn noch mit seiner Frau und dem jüngsten seiner sechs Kinder in seiner Hauptstadt, die nach etymologischem Motto auch Tallinn genannt wird. Wenn er sich mit Forschern treffen will, fliegt er sie oft nur in die baltische Region.

Seine Spendenstrategie ist methodisch, wie fast alles, was er tut. Er verteilt sein Geld auf elf Organisationen, von denen jede an unterschiedlichen Ansätzen zur AI-Sicherheit arbeitet, in der Hoffnung, dass man dabei bleibt. 2012 war er Mitbegründer des Cambridge Centre for the Study of Existential Risk (CSER) mit einem Anfangsaufwand von knapp 200.000 USD.

Existenzielle Risiken - oder X-Risiken, wie Tallinn sie nennt - sind Bedrohungen für das Überleben der Menschheit. Neben AI untersuchen die rund 20 Forscher des CSER den Klimawandel, den Atomkrieg und Biowaffen. Für Tallinn tragen die anderen Disziplinen jedoch hauptsächlich dazu bei, die Bedrohung durch künstliche Intelligenz zu legitimieren. "Das sind wirklich nur Medikamente, die mir als Einfallstor dienen. Die Besorgnis über allgemein akzeptierte Bedrohungen wie den Klimawandel könnte die Menschen anziehen. Er hofft, dass der Schrecken der überintelligenten Maschinen, die die Welt erobern, sie davon überzeugen wird, zu bleiben. Er." ist jetzt für eine Konferenz hier, weil er möchte, dass die akademische Gemeinschaft die KI-Sicherheit ernst nimmt.

Unsere Essensbegleiter sind eine zufällige Auswahl von Konferenzteilnehmern, darunter eine Frau aus Hongkong, die Robotik studiert, und ein britischer Mann, der in den 1960er Jahren in Cambridge seinen Abschluss gemacht hat. Der ältere Mann fragt alle am Tisch, an dem sie die Universität besucht haben. (Tallinns Antwort, Estlands Universität Tartu, beeindruckt ihn nicht.) Dann versucht er, das Gespräch auf die Nachrichten auszurichten. Tallinn sieht ihn verständnislos an. „Kurzfristige Risiken interessieren mich nicht“, sagt er.

Tallinn wechselt das Thema zur Bedrohung durch Superintelligenz. Wenn er nicht mit anderen Programmierern spricht, verwendet er standardmäßig Metaphern und durchläuft diese jetzt: Fortgeschrittene KI kann uns so schnell entsorgen, wie Menschen Bäume fällen. Superintelligenz ist für uns das, was wir für Gorillas sind. Über seinem Kopf steht in lateinischer Sprache eine Zeile aus Psalm 133: „Wie gut und wie angenehm es für Brüder ist, in Einheit zusammenzuleben.“ Doch die Einheit ist weit entfernt von dem, was Tallinn in einer Zukunft mit einer schurkischen Superintelligenz im Sinn hat.

Eine KI würde einen Körper brauchen, um die Kontrolle zu übernehmen, sagt der ältere Mann. Wie könnte es ohne irgendeine Art von physischer Hülle physische Kontrolle erlangen? Tallinn hat eine weitere Metapher parat: „Bring mich in einen Keller mit Internetverbindung und ich könnte viel Schaden anrichten“, sagt er. Dann beißt er Risotto.

Ob ein Roomba oder einer seiner weltweit dominierenden Nachkommen, eine KI wird von den Ergebnissen bestimmt. Programmierer weisen diese Ziele zusammen mit einer Reihe von Regeln zu, wie sie verfolgt werden sollen. Fortgeschrittene KI müsste nicht unbedingt das Ziel der Weltherrschaft erhalten, um dies zu erreichen - es könnte einfach ein Zufall sein. Und die Geschichte der Computerprogrammierung steckt voller kleiner Fehler, die Katastrophen auslösten. Im Jahr 2010 verkaufte beispielsweise ein Händler der Investmentgesellschaft Waddell & Reed Tausende von Futures-Kontrakten. Die Software des Unternehmens hat eine Schlüsselvariable aus dem Algorithmus ausgelassen, die zur Ausführung des Handels beitrug. Das Ergebnis war der „Flash-Crash“ in Höhe von Billionen US-Dollar.

Die Forscher aus Tallinn glauben, dass selbst gutartige Ziele heimtückische Folgen haben könnten, wenn die Belohnungsstruktur einer übermenschlichen KI nicht richtig programmiert ist. Ein bekanntes Beispiel, das der Philosoph der Universität Oxford, Nick Bostrom, in seinem Buch Superintelligence entworfen hat, ist ein fiktiver Agent, der so viele Büroklammern wie möglich anfertigen soll. Die KI könnte entscheiden, dass die Atome im menschlichen Körper besser als Rohmaterial für sie verwendet werden.

Tallinns Ansichten haben ihren Anteil an Kritikern, selbst in der Gemeinschaft von Menschen, die sich mit der Sicherheit von KI befassen. Einige halten es für zu früh, sich Gedanken über die Einschränkung der superintelligenten KI zu machen, wenn wir dies noch nicht verstehen. Andere sagen, dass die Konzentration auf schurkische technologische Akteure die Aufmerksamkeit von den dringlichsten Problemen ablenkt, mit denen sie konfrontiert sind, wie der Tatsache, dass die Mehrheit der Algorithmen von weißen Männern entworfen wird oder auf Daten basiert, die auf sie ausgerichtet sind. „Wir laufen Gefahr, eine Welt aufzubauen, in der wir nicht leben wollen, wenn wir diese Herausforderungen kurzfristig nicht bewältigen“, sagt Terah Lyons, Executive Director der Partnership on AI, einer Organisation mit mehreren Interessengruppen KI-Sicherheit und andere Probleme. (Einige der Mitglieder des Tallinner Instituts sind Mitglieder.) Sie fügt jedoch hinzu, dass einige der kurzfristigen Herausforderungen, mit denen Forscher konfrontiert sind, wie etwa die Beseitigung algorithmischer Verzerrungen, Vorläufer derjenigen sind, die die Menschheit möglicherweise mit einer überintelligenten KI sieht.

Tallinn ist nicht so überzeugt. Er kontert, dass superintelligente KI einzigartige Bedrohungen mit sich bringt. Letztendlich hofft er, dass die KI-Gemeinschaft in den 1940er Jahren der Führung der Anti-Atom-Bewegung folgen könnte. Nach den Bombenanschlägen von Hiroshima und Nagasaki schlossen sich Wissenschaftler zusammen, um weitere Atomtests einzuschränken. „Die Wissenschaftler des Manhattan-Projekts hätten sagen können:‚ Schauen Sie, wir machen hier Innovationen, und Innovationen sind immer gut, also lasst uns einfach weitermachen '“, erzählt er mir. "Aber sie waren mehr verantwortlich als das."

Tallinn warnt davor, dass es schwierig sein wird , einen Ansatz zur AI-Sicherheit zu finden. Wenn eine KI klug genug ist, könnte sie die Einschränkungen besser verstehen als ihre Schöpfer. Stellen Sie sich vor, er sagt, er wache in einem Gefängnis auf, das von einer Gruppe blinder Fünfjähriger gebaut wurde. "So könnte es für eine superintelligente KI sein, die von Menschen eingeschlossen wird.

Yudkowsky, der Theoretiker, fand Hinweise darauf, dass dies zutreffen könnte, als er ab 2002 Chat-Sitzungen durchführte, in denen er die Rolle einer KI spielte, die in einer Kiste eingeschlossen war, während eine Rotation anderer Personen den Gatekeeper spielte, der die KI im Griff hatte Drei von fünf Fällen, so Yudkowsky, sei er ein Sterblicher, überredete er den Pförtner, ihn freizulassen. Seine Experimente haben die Forscher jedoch nicht davon abgehalten, eine bessere Box zu entwerfen.

Die Forscher, die Tallinn finanziert, verfolgen eine Vielzahl von Strategien, von der praktischen bis zur scheinbar weit entfernten. Einige theoretisieren über das Boxen von KI, entweder physisch, indem sie eine tatsächliche Struktur aufbauen, um sie zu enthalten, oder indem sie in Grenzen programmieren, was sie kann. Andere versuchen, AI zu lehren, sich an menschliche Werte zu halten. Einige arbeiten an einem Last-Ditch-Off-Schalter. Ein Forscher, der sich mit allen dreien befasst, ist der Mathematiker und Philosoph Stuart Armstrong vom Future of Humanity Institute der Universität Oxford, das Tallinn als den interessantesten Ort im Universum bezeichnet Armstrong ist einer der wenigen Forscher auf der Welt, der sich ganz auf die AI-Sicherheit konzentriert.

Ich treffe ihn eines Nachmittags in einem Café in Oxford zum Kaffee. Er trägt ein Rugby-Hemd, das am Kragen aufgeknöpft ist, und sieht aus wie jemand, der sein Leben hinter einer Leinwand verbringt, mit einem blassen Gesicht, das von sandigem Haar eingerahmt ist. Er würzt seine Erklärungen mit einer verwirrenden Mischung aus -beliebt- Kulturbezügen und Mathematik. Wenn ich ihn frage, wie es aussehen könnte, wenn AI-Sicherheit gelingt, sagt er: "Hast du den Lego-Film gesehen ? Alles ist großartig."

Ein Stamm von Armstrongs Forschungen befasst sich mit einem spezifischen Ansatz zum Boxen, der als „Orakel-KI“ bezeichnet wird. In einer Arbeit von 2012 mit Nick Bostrom, der die FHI mitbegründete, schlug er vor, die Superintelligenz in einem Haltetank nicht nur gegen eine physische Struktur abzumauern, sondern sie auch auf die Beantwortung von Fragen zu beschränken, wie dies bei einem wirklich intelligenten Ouija-Board der Fall ist. Selbst mit diesen Grenzen hätte eine KI immense Macht, das Schicksal der Menschheit durch subtile Manipulation ihrer Vernehmer umzugestalten. Um die Wahrscheinlichkeit zu verringern, dass dies geschieht, hat Armstrong eine zeitliche Begrenzung von Gesprächen oder ein Verbot von Fragen vorgeschlagen, die die aktuelle Weltordnung stören könnten. Er hat auch vorgeschlagen, den Orakel-Stellvertretern Maßnahmen zum menschlichen Überleben wie den Dow Jones Industrial Average oder die Anzahl der Menschen, die die Straße in Tokio überqueren, zu geben und sie aufzufordern, diese stabil zu halten.

Letztendlich, so glaubt Armstrong, könnte es notwendig sein, wie er es in einem Artikel nennt, einen "großen roten Aus-Schalter" zu erstellen: entweder einen physischen Schalter oder einen Mechanismus, der in eine KI programmiert ist, um sich bei einem automatischen Aus auszuschalten ausbrechen. Das Entwerfen eines solchen Schalters ist jedoch alles andere als einfach. Es ist nicht nur so, dass eine fortgeschrittene KI, die an Selbsterhaltung interessiert ist, verhindern könnte, dass der Knopf gedrückt wird. Es könnte auch neugierig werden, warum Menschen den Knopf erfunden haben, ihn aktivieren, um zu sehen, was passiert, und sich selbst unbrauchbar machen. 2013 entwarf ein Programmierer namens Tom Murphy VII eine KI, die sich das Spielen von Nintendo Entertainment System-Spielen beibringen konnte. Entschlossen, bei Tetris nicht zu verlieren, drückte die KI einfach die Pause - und hielt das Spiel eingefroren. "Wirklich, der einzige Gewinnzug ist es, Murphy in einem Artikel über seine Schöpfung nicht ironisch zu spielen.

Damit die Strategie erfolgreich sein kann, muss eine KI nicht an der Schaltfläche interessiert sein oder, wie Tallinn es ausdrückt, „der Welt, in der sie nicht existiert, und der Welt, in der sie existiert, den gleichen Wert zuweisen.“ Aber selbst wenn Forscher dies können Um dies zu erreichen, gibt es andere Herausforderungen. Was ist, wenn sich die KI mehrere tausend Mal über das Internet kopiert hat?

Der Ansatz, der die Forscher am meisten begeistert, besteht darin, KI an menschlichen Werten festzuhalten - nicht indem man sie einprogrammiert, sondern indem man KIs beibringt, sie zu lernen. In einer von Parteipolitik geprägten Welt wird oft darüber nachgedacht, wie sich unsere Prinzipien unterscheiden. Tallinn merkt jedoch an, dass die Menschen vieles gemeinsam haben: „Fast jeder schätzt sein rechtes Bein. Wir denken einfach nicht darüber nach. “Die Hoffnung ist, dass einer KI beigebracht wird, solche unveränderlichen Regeln zu erkennen.

Dabei müsste eine KI die weniger logische Seite des Menschen kennen und schätzen lernen: dass wir oft eins sagen und etwas anderes meinen, dass einige unserer Vorlieben mit anderen in Konflikt stehen und dass Menschen weniger zuverlässig sind, wenn sie betrunken sind . Die Datenspuren, die wir alle in Apps und sozialen Medien hinterlassen, können jedoch als Leitfaden dienen. Trotz der Herausforderungen, glaubt Tallinn, müssen wir es versuchen, weil die Einsätze so hoch sind. "Wir müssen ein paar Schritte vorausdenken", sagt er. "Eine KI zu schaffen, die unsere Interessen nicht teilt, wäre ein schrecklicher Fehler."

An Tallinns letzter Nacht in Cambridge treffe ich mich mit ihm und zwei Forschern zum Abendessen in einem britischen Steakhouse. Ein Kellner setzt unsere Gruppe in einen weiß getünchten Keller mit höhlenartiger Atmosphäre. Er gibt uns ein einseitiges Menü mit drei verschiedenen Arten von Brei. Ein Paar setzt sich neben uns an den Tisch und bittet ein paar Minuten später, woanders hin zu ziehen. „Es ist zu klaustrophobisch, beschwert sich die Frau. Ich denke an Tallinns Kommentar über den Schaden, den er anrichten könnte, wenn er in einem Keller mit nur einer Internetverbindung eingeschlossen wäre aus.

Zu Tallinns Gästen zählen der ehemalige Genomforscher Seán Ó hÉigeartaigh, der Geschäftsführer des CSER, und Matthijs Maas, ein AI-Politikforscher an der Universität Kopenhagen. Sie scherzen über eine Idee für einen nerdigen Actionfilm mit dem Titel Superintelligence vs. Blockchain! und diskutieren Sie ein Online-Spiel namens Universal Paperclips, das das Szenario in Bostroms Buch beschreibt. In dieser Übung müssen Sie wiederholt mit der Maus klicken, um Büroklammern zu erstellen. Es ist nicht gerade auffällig, aber es gibt einen Sinn dafür, warum eine Maschine nach zweckmäßigeren Möglichkeiten zur Herstellung von Büromaterial sucht.

Letztendlich verlagert sich das Gespräch in Richtung größerer Fragen, wie es oft der Fall ist, wenn Tallinn anwesend ist. Das ultimative Ziel der KI-Sicherheitsforschung ist es, Maschinen zu entwickeln, die, wie der Cambridge-Philosoph und CSER-Mitbegründer Huw Price es einst ausdrückte, „ethisch und kognitiv übermenschlich“ sind. Andere haben die Frage aufgeworfen: Wenn wir nicht wollen KI, um uns zu beherrschen, wollen wir es beherrschen? Mit anderen Worten, hat KI Rechte? Tallinn sagt, das ist unnötig, anthropomorphisierend. Es wird davon ausgegangen, dass Intelligenz gleich Bewusstsein ist - ein Missverständnis, das viele KI-Forscher verärgert. Früher am Tag scherzte der CSER-Forscher Jose Hernandez-Orallo, dass im Gespräch mit KI-Forschern das Bewusstsein „das C-Wort“ ist (und „der freie Wille ist das F-Wort“, fügte er hinzu).

VERBINDUNG: Wie es wirklich ist, als Sicherheitsfahrer in einem selbstfahrenden Auto zu arbeiten

Im Keller sagt Tallinn, dass das Bewusstsein nicht wichtig ist: „Nehmen Sie das Beispiel eines Thermostats. Niemand würde sagen, dass es bewusst ist. Aber es ist wirklich unpraktisch, sich diesem Agenten zu stellen, wenn Sie sich in einem Raum befinden, der auf negative 30 Grad eingestellt ist. “

Ó hÉigeartaigh meldet sich zu Wort. "Es wäre schön, sich um das Bewusstsein zu sorgen", sagt er, "aber wir werden nicht den Luxus haben, uns um das Bewusstsein zu sorgen, wenn wir die technischen Sicherheitsherausforderungen nicht zuerst gelöst haben."

Die Leute sind zu sehr mit der superintelligenten KI beschäftigt, sagt Tallinn. Welche Form wird es annehmen? Sollten wir uns Sorgen machen, dass eine einzelne KI übernimmt oder eine Armee von ihnen? „Aus unserer Sicht ist es wichtig, was die KI macht“, betont er. Und das, so glaubt er, könnte vorerst noch den Menschen überlassen bleiben.

Dieser Artikel wurde ursprünglich in der Winter 2018 Danger-Ausgabe von Popular Science veröffentlicht.

In der US-Luftwaffe herrscht eine "stille Krise"

In der US-Luftwaffe herrscht eine "stille Krise"

Erinnerst du dich an die Zeit, als Yosemites Feuerfall tatsächlich ein Feuer war?

Erinnerst du dich an die Zeit, als Yosemites Feuerfall tatsächlich ein Feuer war?

Die neue Kameraeffekt-Plattform von Facebook möchte Ihre gesamte Realität erweitern

Die neue Kameraeffekt-Plattform von Facebook möchte Ihre gesamte Realität erweitern