Ultragenaue Ortsbestimmung mit Kamera-Bildern

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/tr/artikel/Ultragenaue-Ortsbestimmung-mit-Kamera-Bildern-4407817.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><svg preserveaspectratio=„xMinYMin“ xmlns=„http://www.w3.org/2000/svg“ viewbox=„0 0 600 190“ width=„180“ height=„57“><path d=„M398.25,125.73H379.5L370,169.45l-8.47-43.73H342.22l-9.3,43.35-8.62-43.35h-19l16.88,62H342l9.15-41.4,9.07,41.4h19.65Zm-92.17,34.8v-.83c0-17.25-7.87-35.93-31.12-35.93-24.22,0-31.87,18.52-31.87,34.13,0,20.1,12.45,32.1,31.35,32.1,12.83,0,23.85-6.15,30.9-17.92L291.53,165a16.5,16.5,0,0,1-15.67,11c-8.47,0-14.17-6.45-14.17-14.7v-.67h44.4ZM274.8,136.9c7.5,0,12.15,5.33,12.38,12.23H261.75c.83-5,4.35-12.23,13-12.23M217.42,97.6h18.15v16.27H217.42Zm0,28.2h18.15v62H217.42Zm-5.25-.07H193.42L183.15,167.8l-11-42.07H152.77l20.18,62h19.13ZM154,160.53v-.83c0-17.25-7.87-35.93-31.12-35.93C98.63,123.77,91,142.3,91,157.9,91,178,103.43,190,122.33,190c12.83,0,23.85-6.15,30.9-17.92l-13.73-7.2a16.5,16.5,0,0,1-15.67,11c-8.48,0-14.17-6.45-14.17-14.7v-.67Zm-31.2-23.62c7.5,0,12.15,5.33,12.38,12.23H109.72c.75-5,4.35-12.23,13.05-12.23m-50.7,17.33c8.7-3.67,16.43-9.37,16.43-23.17,0-23-19.95-27.23-31.87-27.23H21.15v83.85h19V157.75H52.95l16,29.92h21.6Zm-15.52-12H40.05v-22.8H56.7c3.52,0,13.05.23,13.05,11.17,0,2.63-1.8,11.63-13.2,11.63M600,22H580.57l-10.2,44.4L560.18,22H540.75l18,58.28c1,3,1.28,4.27,1.28,5.93,0,2.1-1.2,4.5-6.68,4.5h-9.6V105.3H559.2c5.47,0,9.15-.67,12.9-4.73,3.22-3.45,4.65-7.2,6.07-11.62Zm-82.05,29.1c0,6.3-.6,16.12-11.4,16.12-9.9,0-11.55-7.95-11.55-16.72,0-3.9.6-15.9,11.18-15.9s11.77,8.7,11.77,16.5m1-29v5.7c-3.3-3.22-8.18-6.75-17.18-6.75C486.9,21,476.1,32.78,476.1,51.23c0,24.07,15.53,29.93,25.65,29.93,8.32,0,12.07-2.62,16.28-5.32v8.4c0,7-4.05,9.82-10.8,9.82-9.53,0-11.25-4.8-11.25-8.93H477.15v.75c0,13.5,11.63,20.25,28.35,20.25,20.18,0,30.75-7.58,30.75-23.7V22ZM437.7,20C414.53,20,405,36.82,405,52.5c0,24.45,17.1,33.3,33.3,33.3,20.78,0,33.38-12.82,33.38-32.93,0-14.85-8-32.92-34-32.92m.83,51.23c-10.72,0-15.07-8.18-15.07-18.53,0-13,7.28-18.15,14.18-18.15,10,0,15.6,5.85,15.6,19-.08,9.23-4.58,17.63-14.7,17.63M380.33,0h18.15V83.93H380.33ZM340,20c-23.17,0-32.7,16.87-32.7,32.55,0,24.45,17.1,33.3,33.3,33.3,20.78,0,33.38-12.82,33.38-32.93C374,38,366,20,340,20m.83,51.23c-10.72,0-15.08-8.18-15.08-18.53,0-13,7.28-18.15,14.17-18.15,10,0,15.6,5.85,15.6,19-.07,9.23-4.57,17.63-14.7,17.63M300.9,83.93V39.3c0-12.6-6.67-19-19.28-19-8.7,0-14.47,3.45-17.47,7V21.75H245.63v62h18.3V49.2c0-8.32,1.2-14.25,9.6-14.25,7.35,0,9,4.88,9,10.72V83.92Zm-65.18,0V41.47c0-13.2-6.9-21.3-19.72-21.3-3.6,0-11,.83-17.7,8.33V0H180V83.93h18.3V51.23c0-9.75,2.25-15.45,9.9-15.45,9,0,9.38,8.18,9.38,14.63V83.93ZM175.8,69.3,162,62.18c-1.27,3.9-4.87,9.3-12,9.3-10.12,0-13.8-10.8-13.8-18.68,0-7.5,3.45-18.68,13.2-18.68,7.13,0,10.42,5.25,12.15,8.7l13.58-7.72c-8.7-13.8-20.92-15-26.48-15-14,0-31.12,8.47-31.12,33.3,0,23.32,16.27,32.55,30.75,32.55,9.45,0,20.47-4.43,27.52-16.65M113.33,56.7v-.82c0-17.25-7.87-35.93-31.13-35.93C58,19.95,50.33,38.47,50.33,54.07c0,20.1,12.45,32.1,31.35,32.1,12.82,0,23.85-6.15,30.9-17.93l-13.8-7.12a16.5,16.5,0,0,1-15.68,11C74.7,72.15,69,65.7,69,57.38V56.7ZM82.05,33.07c7.5,0,12.15,5.32,12.38,12.22H69c.82-5,4.43-12.22,13.05-12.22M58.73,16.5,62.48,0H0V16.5H21.15V83.85h19V16.5Z“ fill=„#ce001e“/></svg></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/tr/imgs/08/2/6/6/8/0/0/9/scape-nat-gallery-gif-429760d65dafc1f4.png“ alt=„Ultragenaue Ortsbestimmung mit Kamera-Bildern“/></figure><p><strong>Viele zuk&#252;nftige Technologien sind auf exakte Angaben zum Standort von Nutzern und Ger&#228;ten angewiesen. Ein Londoner Start-up will diese Infrastruktur mit Hilfe einer riesigen Foto-Datenbank realisieren.</strong></p> <p>Wenn man Technologie-Fans Glauben schenkt, werden selbstfahrende Autos in zehn Jahren allgegenw&#228;rtig sein, Drohnen unsere Pakete liefern und Roboter die Lebensmittel. Und eines nicht mehr fernen Tages werden unsere St&#228;dte mit Augmented-Reality-Kennzeichnungen versehen sein, die wie ein ganz normaler Bestandteil der jeweiligen Umgebung wirken.</p> <p>Ob es dazu kommt oder nicht, h&#228;ngt von vielen Faktoren ab. Ben&#246;tigt aber wird daf&#252;r in jedem Fall eine ultrapr&#228;zise Technologie zur Lokalisierung. Denn GPS und der wandernde blaue Punkt auf der Karten-Apps von Smartphones sind zwar n&#252;tzlich, um sich als Mensch in einer fremden Stadt zurechtzufinden. F&#252;r Maschinen aber reicht das nicht aus &#8211; sie ben&#246;tigen Ortsangaben mit einer Genauigkeit von Zentimetern.</p> <h3 class=„subheading“>Daten zusammengef&#252;gt</h3> <p>Das Londoner Start-up Scape will genau das liefern. Um innerhalb von zwei bis drei Sekunden exakt die Position zu bestimmen, nutzt der visuelle Positionierungsdienst des Unternehmens laut seinem Mitgr&#252;nder Edward Miller GPS und mehrere Kamera-Bilder. Daf&#252;r hat es mehr als 2 Milliarden Stra&#223;enbilder gesammelt und pr&#228;zise 3D-Karten von mehr als 100 St&#228;dten weltweit erstellt, darunter London, San Francisco, Paris, Moskau und Tokio. Einige der Daten stammen von Scape-Besch&#228;ftigten, die auf Fahrr&#228;dern mit Kameras St&#228;dte durchkreuzt haben, aber die Plattform kann Bilder aus jeder Quelle verarbeiten.</p> <p>Bei der Nutzung extrahieren die Algorithmen von Scape aus jedem Bild die &#8222;points of interest&#8220; (wie Stra&#223;enschilder, Schaufenster oder Laternen) und vergleichen sie mit den anderen Eintr&#228;gen dazu in der riesigen Datenbank. Mit Hilfe von Triangulation bestimmt das System dann Winkel und Entfernung der einzelnen Aufnahmen und meldet den exakten Standort an den Nutzer zur&#252;ck. Derartige Genauigkeit erlaubt eine bessere Positionierung von AR-Informationen in der realen Welt, als es mit GPS oder anderen Technologien m&#246;glich w&#228;re.</p> <p>&#8222;Scape bringt uns auf die n&#228;chste Ebene. Es geht uns darum, diese M&#246;glichkeiten in eine komplette Stadt zu bringen, die lebt und atmet&#8220;, sagt Miller.</p> <h3 class=„subheading“>Virtuelle Drachen</h3> <p>Bereits heute gibt es einige interessante Anwendungen f&#252;r Augmented Reality (AR), die meisten davon im Unterhaltungsbereich. Erst Anfang April feierte Snapchat den Start der letzten Staffel von Game of Thrones mit der <a href=„https://adage.com/creativity/work/hbo-game-thrones-snapchat-lens/2164786“><strong>Freisetzung von virtuellen Drachen [1]</strong></a> in New York. Viele Unternehmen aber wollen auch AR-Produkte, die an einen bestimmten Ort gebunden sind. Auf der Grundlage von GPS funktioniert das derzeit noch nicht besonders gut (von Spielen wie Pok&#233;mon Go abgesehen).</p> <p>&#8222;Mit bestehenden Positionierungstechnologien kann man mit einer Genauigkeit von wenigen Metern durch eine Stadt navigieren. Das ist in Ordnung, aber f&#252;r Augmented Reality braucht man einen viel h&#246;heren Pr&#228;zisionsgrad&#8220;, sagt Krystian Mikolajczyk, ein Experte f&#252;r maschinelles Sehen an der Imperial University.</p> <p>Nat&#252;rlich ist eine derart hohe Genauigkeit nicht nur f&#252;r AR-Anwendungen hilfreich. Die Herausforderung, wie Maschinen ihre Umgebung besser verstehen k&#246;nnen, besch&#228;ftigt derzeit viele verschiedene Unternehmen. Waymo zum Beispiel stattet seine <a href=„https://techcrunch.com/2018/02/28/waymo-360-degree-video-shows-how-autonomous-vehicles-work/“><strong>autonom fahrenden Autos [2]</strong></a> mit GPS, Lidar, Kameras und Radarsensoren aus. Starship Technologies, ein Anbieter von Roboter-Lieferdiensten, <a href=„https://www.wired.co.uk/article/starship-technologies-robots-deliveries-intuit-compass-test“><strong>geht &#228;hnlich vor [3]</strong></a>.</p> <h3 class=„subheading“>Billiger als Laser</h3> <p>Der Unterschied liegt im Grad der Genauigkeit &#8211; und in der Tatsache, dass Scape ausschlie&#223;lich mit Kameras arbeitet, die deutlich billiger sind als Lidar und andere Laser-Technologien. Au&#223;erdem unterscheidet sich die Scape-Plattform dadurch, dass sie Karten generiert, die mit Ver&#228;nderungen in der Umgebung zurechtkommen.</p> <p>Das ist wichtig, wenn man eine einheitliche Version der Welt f&#252;r Menschen wie Computer erzeugen m&#246;chte, damit Menschen von Robotern oder Drohnen gelieferte Waren auch wirklich finden.</p> <p>Mit seinem Positionierungsdienst will Scape zu einer grundlegenden Infrastruktur werden, auf deren Basis autonome Autos, Roboter und Dienste im Bereich Augmented Reality funktionieren. &#8222;Unser letztliches Ziel ist eine 1-zu-1-Karte der Welt, auf der alles enthalten ist&#8220;, sagt Miller, &#8222;wir wollen so unsichtbar werden, wie es GPS heute ist.&#8220;</p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4407817

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://adage.com/creativity/work/hbo-game-thrones-snapchat-lens/2164786

</small><br/><small>

<strong>[2]</strong>&#160;https://techcrunch.com/2018/02/28/waymo-360-degree-video-shows-how-autonomous-vehicles-work/

</small><br/><small>

<strong>[3]</strong>&#160;https://www.wired.co.uk/article/starship-technologies-robots-deliveries-intuit-compass-test

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>