Jetzt kann die KI dich und so ziemlich jeden anderen Menschen bei einer wachsenden Anzahl von Brettspielen schlagen.

Wenn Sie sich in dieser Weihnachtszeit hinsetzen, um ein Brettspiel der alten Schule wie Schach zu spielen, könnte es demütigend sein, im Hinterkopf zu behalten, wie schlecht Sie gegen einen Computer sein würden. Tatsächlich haben Computer gezeigt, dass sie in der Lage sind, das Essensgeld der Menschheit bei Brettspielen für eine Weile aufzunehmen. Erinnerst du dich an Deep Blue gegen Gary Kasparov im Jahr 1997? Der Computer hat gewonnen. Oder AlphaGo gegen Lee Sedol, in Südkorea, beim Spiel von Go, 2016? Ebenso.

Nun feiert das gleiche Team, das diesen Go-Playing-Bot entwickelt hat, etwas Fantastischeres: ein System der künstlichen Intelligenz, das in der Lage ist, sich selbst zu lehren und drei verschiedene Spiele zu gewinnen. Die KI ist ein Netzwerk, funktioniert aber für mehrere Spiele; diese Verallgemeinerbarkeit macht sie beeindruckender, da sie vielleicht auch andere ähnliche Spiele lernen kann.

Sie nennen es AlphaZero, und es kennt Schach, Shogi (das als japanisches Schach bekannt ist) und Go, ein komplexes Brettspiel, bei dem schwarze und weiße Steine in einem großen Raster aufeinander treffen. Alle diese Spiele fallen unter die Kategorie “Vollständige Information” oder “Perfekte Information” – jeder Spieler kann das gesamte Spielfeld sehen und hat Zugang zu den gleichen Informationen. Das unterscheidet sich von Spielen wie zum Beispiel Poker, bei denen man nicht weiß, welche Karten ein Gegner hält.

“AlphaZero lernt einfach ganz von selbst, indem es gegen sich selbst spielt”, sagt Julian Schrittwieser, Software-Ingenieur bei DeepMind, der es entwickelt hat. “Und wir bekommen eine völlig neue Sicht auf das Spiel, die nicht davon beeinflusst wird, wie Menschen das Spiel traditionell spielen.” Schrittwieser ist Co-Autor einer neuen wissenschaftlichen Studie über AlphaZero, die Ende letzten Jahres erstmals veröffentlicht wurde.

Da AlphaZero “allgemeiner” ist als die KI, die bei Go gewonnen hat, in dem Sinne, dass es mehrere Spiele spielen kann, “deutet es darauf hin, dass wir eine gute Chance haben, dies auf noch mehr reale Probleme auszudehnen, die wir später vielleicht angehen wollen”, sagt Schrittwieser.

Das Netzwerk muss zuerst die Spielregeln kennen, und danach lernt es, indem es Spiele gegen sich selbst spielt. Dieses Training dauerte etwa 13 Tage für die Partie Go, aber nur 9 Stunden für Schach. Danach dauerte es nicht lange, bis es anfing, andere Computerprogramme zu schlagen, die bereits Experten für diese Spiele waren. Zum Beispiel brauchte AlphaZero bei Shogi nur zwei Stunden, um ein anderes Programm namens Elmo zu schlagen. Tatsächlich rühmt sich DeepMind in einem Blogartikel, dass die KI “der stärkste Spieler in der Geschichte” für Schach, Shogi und Go ist. Derselbe Algorithmus könnte verwendet werden, um andere “vollständige Informationsspiele”, wie das Hex-Spiel, ohne “Probleme” zu spielen, sagt Schrittwieser.

Die neue KI ähnelt dem System der künstlichen Intelligenz, das Lee Sedol 2016 besiegt hat. Dieses Headline-Grabbing-Turnier ist Gegenstand eines ausgezeichneten Dokumentarfilms namens AlphaGo, der derzeit auf Netflix läuft. Es lohnt sich zu beobachten, ob das Feld der KI gegen Menschen Sie interessiert – oder ob das faszinierende, alte Spiel von Go dies tut.

Und während dies moderne KI-Forschung ist, waren Brettspiele historisch gesehen eine gute Möglichkeit, die Fähigkeiten von Computern zu testen, sagt Murray Campbell, ein Forschungswissenschaftler bei IBM Research, der in der gleichen Ausgabe von Science eine Arbeit zum Thema AlphaGo geschrieben hat. Er sagt, dass die Idee, einen Computer ein Brettspiel spielen zu lassen, auf 1950 zurückgeht, und dass die Maschinen in den 90er Jahren die Menschen bei Dame und Schach besiegen. “Es hat Jahrzehnte der Arbeit an diesen Spielen gedauert, bis wir den Punkt erreicht haben, an dem wir sie besser ausführen können als Menschen”, sagt Campbell. “Ich denke, sie haben dem Feld sehr gut gedient; sie haben es uns ermöglicht, Techniken zu erforschen, wie sie in AlphaZero verwendet werden.”

Und die Erfahrung in der Arbeit mit den in AlphaZero verwendeten Techniken wird hilfreich sein, da das Feld auf “komplexere Aufgaben” abzielt”, ergänzt Campbell. “Und das war der springende Punkt bei der ersten Auseinandersetzung mit Spielen – es geschah nicht um ihrer selbst willen, sondern weil es eine begrenzte Art von Umgebung ist, in der wir Fortschritte machen können.”

Ein praktischer Leitfaden zu den technischen Schlagwörtern von CES 2019

Wenn Sie durch die Consumer Electronics Show gehen, werden Sie eine Vielzahl von verschiedenen Sprachen hören. Es gibt jedoch eine gemeinsame Sprache auf der Ausstellungsfläche – und sie besteht ausschließlich aus Schlagwörtern, Marketingbegriffen und Akronymen. Es kann verwirrend werden, deshalb haben wir diesen praktischen Spickzettel zusammengestellt, der Ihnen hilft, die Ankündigungen, Präsentationen und Übertreibungen zu entschlüsseln, die Sie beim Lesen über neue Produkte finden werden.

5G
Der König der Schlagworte auf der CES 2019 ist 5G. Es bezieht sich hauptsächlich auf das drahtlose Datennetz der nächsten Generation, das irgendwann in der Zukunft die Internetbedürfnisse unserer mobilen Geräte und sogar unserer Heimnetzwerke erfüllen wird. Um viele der CES-Präsentationen zu hören, würde man meinen, dass 5G gleich um die Ecke ist, aber die Wahrheit ist, dass die Technologie im Moment extrem begrenzt ist. In einigen Städten laufen sehr lokalisierte Tests, aber die landesweite Einführung wird erst 2020 erfolgen. Selbst wenn das Netzwerk einmal eingerichtet ist, brauchen wir noch mobile Hardware, die es nutzen kann, was wir wahrscheinlich auf dem Mobile World Congress Ende Februar erfahren werden.

8K
Fernseher sind immer eine der größten Attraktionen von CES und das diesjährige Thema ist 8K. Der Name bezieht sich auf die Gesamtauflösung eines Fernsehers. Genauer gesagt, 8K Fernseher und Monitore haben eine Auflösung von 7.680 x 4.230 Pixel. Es ist der nächste Schritt von 4K, der derzeit gängigsten Ultra-HD-Auflösung auf dem Markt. Im Moment sind 8K-Fernseher meist überflüssig, da es fast keinen Inhalt gibt, der das gesamte hochauflösende Bild unterstützt. Viele High-End-Fernseher wie Sonys neues Flaggschiff TV leisten gute Arbeit bei der Upscaling von 4K-Inhalten, aber 8K wird 2019 keine unverzichtbare Technologie sein.

Künstliche Intelligenz (KI)
Es gibt kaum ein Schlagwort, das so weitreichend ist wie künstliche Intelligenz. Produkte hier bei CES wir “KI”, um alles zu tun, vom Kochen eines Huhns bis hin zum Fahren eines Autos auf einer überfüllten Straße. Die Wahrheit ist, dass KI eine Vielzahl von Dingen bedeuten kann. Der gemeinsame Nenner ist, dass Computeralgorithmen einige Entscheidungen innerhalb des Produkts treffen und wahrscheinlich maschinelles Lernen verwenden, um besser zu sein, was auch immer sie tun.

Wenn also Panasonics Fahreranalysesystem im Auto versucht herauszufinden, ob die Person hinter dem Lenkrad einschläft, indem es ihre Gesichtsausdrücke analysiert, zählt das als KI. Wenn die High-End-Fernseher von LG die auf dem Bildschirm angezeigten Inhalte analysieren, um die Bildqualität zu optimieren, ist das auch KI. Die Beispiele gehen von einfach bis komplex, aber unter dem Strich ist die KI im Moment “cool”, und jedes Produkt, das möglicherweise behaupten kann, es zu verwenden, ist es wahrscheinlich.

 

Virtuelle Realität (VR)
In diesem Jahr gibt es auf der CES-Showfläche eine ganze Reihe von Virtual-Reality-Headsets, darunter das neue HTC Vive Pro mit Eye-Tracking und eine Preview-Version des Oculus Quest, das noch in diesem Jahr aus dem VR-Arm von Facebook kommt. Virtual Reality bedeutet, sich so weit wie möglich in eine digitale Welt einzutauchen, die man sich ans Gesicht bindet. VR-Headsets ersetzen also die reale Welt vollständig durch Computergrafik, anstatt nur digitale Elemente in eine reale Umgebung (also Augmented Reality) einzufügen.

Eine beliebte Anwendung für VR hier auf der CES ist der Einsatz in Autos, um die Passagiere zu unterhalten. Sowohl Intel als auch Audi haben VR-Erfahrungen mit Superhelden-Themen, die sich mit der Bewegung des Autos synchronisieren, in dem Sie fahren, um die Zeit zu vertreiben.

Erweiterte Realität (AR)
AR mischt digitale Objekte in die reale Welt. Denken Sie an Dinge wie, wenn Sie die Ikea App auf Ihrem Smartphone verwenden, um sich vorzustellen, wie eine neue Couch in Ihrem Raum aussehen wird, oder Sie spielen eines dieser Spiele, bei denen kleine Raumschiffe um Ihr Büro fliegen und Sie sie auf Ihrem Handy-Bildschirm aufnehmen. Headsets mit transluzenten Bildschirmen, die digitale Objekte in der realen Welt erscheinen lassen, gelten ebenfalls als Augmented Reality. Dazu gehören Headsets wie der Magic Leap und die Hololens von Microsoft. Wenn Sie die reale Welt noch auf einem Bildschirm oder durch einen lichtdurchlässigen Bildschirm sehen können, haben Sie es in der Regel mit AR anstelle von reinem VR zu tun.

XR
Während AR und VR relativ einfach zu definieren sind, ist XR nebulöser – tatsächlich steht das X wirklich nicht einmal für etwas. Einige Anwendungen von XR dienen als Fangvorrichtung, um sowohl virtuelle als auch erweiterte Realität darzustellen. Auf einer tieferen Ebene ist XR ein Versuch, einige der Wände zwischen Augmented und Virtual Reality niederzureißen, um es für Inhaltsersteller einfacher zu machen, Inhalte für jede Art von Headset zu erstellen, die Benutzer bereit sind, sich auf ihr Gesicht zu schnallen. Wenn Sie XR im Jahr 2019 sehen, bezieht es sich wahrscheinlich entweder auf Augmented Reality, Virtual Reality oder eine Mischung aus beidem.

Organische LED (OLED)
Fast alle High-End-Fernseher, die Sie auf der CES 2019 sehen werden, sind OLED-Displays, einschließlich des flexiblen Fernsehers, den LG entwickelt hat, um ihn in seine Basis zu rollen, wenn er nicht in Gebrauch ist. OLED-Bildschirme funktionieren anders als ältere Flachbildfernseher wie LEDs oder LCDs, die im Wesentlichen Licht hinter den Pixeln auf dem Bildschirm benötigen, um das Bild zu beleuchten. Aber OLED-Fernseher haben Pixel, die einzeln leuchten, so dass sie sich komplett ausschalten können, wenn sie schwarz sein sollen. Das Ergebnis ist ein Bild, das aufgrund der schwarzeren Schwarzwerte heller und kontrastreicher wirkt. Das ist natürlich eine reduzierende Beschreibung einer recht komplexen Technologie, aber das Takeaway ist, dass OLED derzeit noch der Standard für High-End-Geräte ist. Wenn Sie sich für eine OLED entscheiden, können Sie erwarten, dass Sie mehr Geld ausgeben und ein sehr schönes Bild erhalten.

Intel-Prozessor der 8. oder 9. Generation
Wenn Sie sich auf der diesjährigen Messe Laptops oder Computer jeglicher Art ansehen, wird in den Spezifikationen zwangsläufig der Prozessor erwähnt. Intel stellt diese Prozessoren her, und bis zum Start von CES waren die Core Prozessoren der achten Generation ihre neuesten und größten. Anfang dieser Woche kündigte Intel jedoch an, dass seine neuen Core Prozessoren der neunten Generation Anfang dieses Jahres kommen werden.

Praktisch gesehen sind die Chips der acht Generationen die aktuellste Ausrüstung auf dem Markt und es lohnt sich wahrscheinlich nicht zu warten, bis die nächste Welle von Prozessoren mit der Auslieferung beginnt, um eine neue Maschine zu kaufen. Nur weil es die neunte Generation jetzt gibt, bedeutet das nicht, dass das Zeug der achten Generation veraltet oder sogar veraltet ist.

Wearable
Zu einem bestimmten Zeitpunkt war der Markt für “Wearable Technology” fast ausschließlich von intelligenten Uhren und schlicht aussehenden Brillen geprägt, in die eine Art Bildschirm eingeklemmt war. Jetzt jedoch hat sich der Begriff “tragbar” erweitert und bedeutet so ziemlich jedes Stück Elektronik, das auf dem Körper bleibt, um eine Aufgabe zu erfüllen. Der intelligente Ring von Motiv, der Ihre Herzfrequenz erfasst und Ihnen hilft, Ihre Fitnessdaten zu verfolgen, ist also genau das Richtige. Es ist eine ziemlich unterschiedliche Kategorie, jetzt, da sich der Begriff Umbrella Wearables etwas veraltet anfühlt.

Blickverfolgung
Einer der nächsten großen Fortschritte in der virtuellen Realität besteht darin, die Hände aus der Gleichung zu nehmen. Das neue Vive Pro-Headset des HTC kann beispielsweise verfolgen, wohin Sie schauen, indem Sie Ihre Augäpfel beobachten. So können Sie Aufgaben wie die Änderung von Einstellungen und die Navigation in Menüs erledigen, indem Sie Ihren Blick auf bestimmte Stellen richten.

Darüber hinaus können Entwickler auch Eye-Tracking-Techniken nutzen, um eine Technik namens “foveated rendering” zu entwickeln. Grundsätzlich kann das Headset sagen, wohin Sie schauen und wird alles andere in der Virtual-Reality-Welt verwischen. Dadurch kann das Gerät seine gesamte Rechenleistung auf den kleinen Bereich konzentrieren, auf den Sie schauen, was die Grafik viel ausgefallener erscheinen lassen kann.

Erwarten Sie, dass diese Art von Technologie mehr in High-End VR-Kits auf dem Markt zu sehen ist.

Ray-Tracing
Im vergangenen Jahr veröffentlichte Nvidia seine ersten Computergrafikkarten, die in der Lage sind, das Raytracing im Heimcomputerspiel einzuführen.

Künstliche Intelligenz machte diesen Roboterhund zu einem sehr guten Jungen.

Triff JEDEN, einen vierbeinigen Roboter, dessen Name als “Tier” ausgesprochen wird. Das 73 Pfund schwere hundeähnliche Gerät ist ein in der Schweiz hergestelltes Gerät, das dank künstlicher Intelligenz schneller laufen, effizienter arbeiten und sich nach einem Unfall selbst zurücksetzen kann, erfolgreicher als vor seinem KI-Training.

Der Roboter, der in einer neuen Studie in der Zeitschrift Science Robotics vorgestellt wurde, lernte nicht nur mit KI, sondern auch durch Computersimulationen auf einem Desktop, ein viel schnellerer Ansatz als das Erlernen neuer Tricks in der realen, physischen Welt. Tatsächlich ist die Simulation laut der Studie etwa 1.000 Mal schneller als die reale Welt.

Dies ist nicht die einzige Arena, für die Simulation wichtig ist: In der Welt der selbstfahrenden Autos ist die Zeit in der Simulation eine entscheidende Voraussetzung dafür, dass Unternehmen die Software, die die Fahrzeuge bedient, testen und weiterentwickeln. In diesem Fall verwendeten die Forscher eine ähnliche Strategie, nur mit einem Roboterhund.

Um sicherzustellen, dass der Simulator, in dem der virtuelle Hund seine Fähigkeiten erlernte, genau war, haben die Forscher zunächst Daten darüber aufgenommen, wie sich der Roboter in der realen Welt verhält. Dann, in der Simulation, ein neuronales Netzwerk – eine Art maschinelles Lernwerkzeug – lernte, wie man den Roboter steuert.

Neben den Geschwindigkeitsvorteilen der Simulation ermöglichte die Technik den Forschern, Dinge mit dem Roboter zu machen, die sie im wirklichen Leben nicht tun wollten. Beispielsweise könnten sie den zerbrechlichen Roboterhund in der Simulation virtuell in die Luft werfen, sagt Jemin Hwangbo, die leitende Forscherin des Projekts und Postdoc im Robotic Systems Lab in Zürich, Schweiz. Dann konnte der Welpe herausfinden, wie er nach der Landung wieder aufstehen kann.

Nachdem das neuronale Netzwerk sein Training in Simulation beendet hatte, konnte das Team dieses Lernen auf dem physischen Roboter selbst einsetzen – der über zwei Fuß hoch steht, 12 Gelenke hat, elektrisch angetrieben ist und einem Roboter namens SpotMini von Boston Dynamics ähnlich sieht.

Das Endergebnis nach der Simulationszeit und der KI war, dass der Robo Pooch Anweisungen präziser befolgen konnte – wenn er zum Beispiel bei 1,1 mph laufen sollte, konnte er das genauer als zuvor tun, so Hwangbo; er war auch in der Lage, nach einem Sturz erfolgreich aufzustehen und schneller zu laufen. Die Programmierung eines komplexen Roboters wie JEDEM mit spezifischen Anweisungen zum Aufstehen nach einem Sturz ist kompliziert, während es einen viel robusteren Ansatz darstellt, wenn man ihn in der Simulation lernen lässt, wie man es macht.

Chris Atkeson, Professor am Robotics Institute und am Human-Computer Interaction Institute an der Carnegie Mellon University, sagte, dass die Methode, die Hwangbo und sein Team verwendet haben, Zeit und Geld spart, wenn es darum geht, einen Roboter dazu zu bringen, das zu tun, was man will.

“Sie haben die Roboterprogrammierung billiger gemacht”, sagt er. “Programmierung ist sehr teuer, und Roboterprogrammierung ist wirklich teuer, weil man im Grunde genommen Roboterflüsterer haben muss.” Das liegt daran, dass die Leute, die Roboter programmieren, sowohl gut im Programmieren als auch darin sein müssen, die Mechanik des Roboters richtig funktionieren zu lassen.

Aber mit Hwangbo und seinem Team konnte ihr Roboter in der Simulation lernen, im Gegensatz zu Programmierern, die jede Aktion sorgfältig programmieren. Es ist “ein großer Schritt zur Automatisierung dieser Art von Dingen”, sagt Atkeson.

Was die Tatsache betrifft, dass ein Video von Robotic Systems Lab zeigt, dass der Roboter getreten wird, vermutlich um zu testen, wie robust er ist? “Wenn dieser Roboter super intelligent wird, wird er sauer”, scherzt Atkeson. “Es gibt die Videoaufzeichnung von ihnen, die es treten – also werden sie die Ersten sein, die gehen, wenn die Roboterrevolution kommt.”