Qgelm

Ultragenaue Ortsbestimmung mit Kamera-Bildern

Originalartikel

Backup

<html> <p class=„printversionback-to-article printversion–hide“><a href=„https://www.heise.de/tr/artikel/Ultragenaue-Ortsbestimmung-mit-Kamera-Bildern-4407817.html“>zur&#252;ck zum Artikel</a></p><figure class=„printversionlogo“><svg preserveaspectratio=„xMinYMin“ xmlns=„http://www.w3.org/2000/svg“ viewbox=„0 0 600 190“ width=„180“ height=„57“><path d=„M398.25,125.73H379.5L370,169.45l-8.47-43.73H342.22l-9.3,43.35-8.62-43.35h-19l16.88,62H342l9.15-41.4,9.07,41.4h19.65Zm-92.17,34.8v-.83c0-17.25-7.87-35.93-31.12-35.93-24.22,0-31.87,18.52-31.87,34.13,0,20.1,12.45,32.1,31.35,32.1,12.83,0,23.85-6.15,30.9-17.92L291.53,165a16.5,16.5,0,0,1-15.67,11c-8.47,0-14.17-6.45-14.17-14.7v-.67h44.4ZM274.8,136.9c7.5,0,12.15,5.33,12.38,12.23H261.75c.83-5,4.35-12.23,13-12.23M217.42,97.6h18.15v16.27H217.42Zm0,28.2h18.15v62H217.42Zm-5.25-.07H193.42L183.15,167.8l-11-42.07H152.77l20.18,62h19.13ZM154,160.53v-.83c0-17.25-7.87-35.93-31.12-35.93C98.63,123.77,91,142.3,91,157.9,91,178,103.43,190,122.33,190c12.83,0,23.85-6.15,30.9-17.92l-13.73-7.2a16.5,16.5,0,0,1-15.67,11c-8.48,0-14.17-6.45-14.17-14.7v-.67Zm-31.2-23.62c7.5,0,12.15,5.33,12.38,12.23H109.72c.75-5,4.35-12.23,13.05-12.23m-50.7,17.33c8.7-3.67,16.43-9.37,16.43-23.17,0-23-19.95-27.23-31.87-27.23H21.15v83.85h19V157.75H52.95l16,29.92h21.6Zm-15.52-12H40.05v-22.8H56.7c3.52,0,13.05.23,13.05,11.17,0,2.63-1.8,11.63-13.2,11.63M600,22H580.57l-10.2,44.4L560.18,22H540.75l18,58.28c1,3,1.28,4.27,1.28,5.93,0,2.1-1.2,4.5-6.68,4.5h-9.6V105.3H559.2c5.47,0,9.15-.67,12.9-4.73,3.22-3.45,4.65-7.2,6.07-11.62Zm-82.05,29.1c0,6.3-.6,16.12-11.4,16.12-9.9,0-11.55-7.95-11.55-16.72,0-3.9.6-15.9,11.18-15.9s11.77,8.7,11.77,16.5m1-29v5.7c-3.3-3.22-8.18-6.75-17.18-6.75C486.9,21,476.1,32.78,476.1,51.23c0,24.07,15.53,29.93,25.65,29.93,8.32,0,12.07-2.62,16.28-5.32v8.4c0,7-4.05,9.82-10.8,9.82-9.53,0-11.25-4.8-11.25-8.93H477.15v.75c0,13.5,11.63,20.25,28.35,20.25,20.18,0,30.75-7.58,30.75-23.7V22ZM437.7,20C414.53,20,405,36.82,405,52.5c0,24.45,17.1,33.3,33.3,33.3,20.78,0,33.38-12.82,33.38-32.93,0-14.85-8-32.92-34-32.92m.83,51.23c-10.72,0-15.07-8.18-15.07-18.53,0-13,7.28-18.15,14.18-18.15,10,0,15.6,5.85,15.6,19-.08,9.23-4.58,17.63-14.7,17.63M380.33,0h18.15V83.93H380.33ZM340,20c-23.17,0-32.7,16.87-32.7,32.55,0,24.45,17.1,33.3,33.3,33.3,20.78,0,33.38-12.82,33.38-32.93C374,38,366,20,340,20m.83,51.23c-10.72,0-15.08-8.18-15.08-18.53,0-13,7.28-18.15,14.17-18.15,10,0,15.6,5.85,15.6,19-.07,9.23-4.57,17.63-14.7,17.63M300.9,83.93V39.3c0-12.6-6.67-19-19.28-19-8.7,0-14.47,3.45-17.47,7V21.75H245.63v62h18.3V49.2c0-8.32,1.2-14.25,9.6-14.25,7.35,0,9,4.88,9,10.72V83.92Zm-65.18,0V41.47c0-13.2-6.9-21.3-19.72-21.3-3.6,0-11,.83-17.7,8.33V0H180V83.93h18.3V51.23c0-9.75,2.25-15.45,9.9-15.45,9,0,9.38,8.18,9.38,14.63V83.93ZM175.8,69.3,162,62.18c-1.27,3.9-4.87,9.3-12,9.3-10.12,0-13.8-10.8-13.8-18.68,0-7.5,3.45-18.68,13.2-18.68,7.13,0,10.42,5.25,12.15,8.7l13.58-7.72c-8.7-13.8-20.92-15-26.48-15-14,0-31.12,8.47-31.12,33.3,0,23.32,16.27,32.55,30.75,32.55,9.45,0,20.47-4.43,27.52-16.65M113.33,56.7v-.82c0-17.25-7.87-35.93-31.13-35.93C58,19.95,50.33,38.47,50.33,54.07c0,20.1,12.45,32.1,31.35,32.1,12.82,0,23.85-6.15,30.9-17.93l-13.8-7.12a16.5,16.5,0,0,1-15.68,11C74.7,72.15,69,65.7,69,57.38V56.7ZM82.05,33.07c7.5,0,12.15,5.32,12.38,12.22H69c.82-5,4.43-12.22,13.05-12.22M58.73,16.5,62.48,0H0V16.5H21.15V83.85h19V16.5Z“ fill=„#ce001e“/></svg></figure><figure class=„aufmacherbild“><img src=„https://heise.cloudimg.io/width/700/q75.png-lossy-75.webp-lossy-75.foil1/_www-heise-de_/tr/imgs/08/2/6/6/8/0/0/9/scape-nat-gallery-gif-429760d65dafc1f4.png“ alt=„Ultragenaue Ortsbestimmung mit Kamera-Bildern“/></figure><p><strong>Viele zuk&#252;nftige Technologien sind auf exakte Angaben zum Standort von Nutzern und Ger&#228;ten angewiesen. Ein Londoner Start-up will diese Infrastruktur mit Hilfe einer riesigen Foto-Datenbank realisieren.</strong></p> <p>Wenn man Technologie-Fans Glauben schenkt, werden selbstfahrende Autos in zehn Jahren allgegenw&#228;rtig sein, Drohnen unsere Pakete liefern und Roboter die Lebensmittel. Und eines nicht mehr fernen Tages werden unsere St&#228;dte mit Augmented-Reality-Kennzeichnungen versehen sein, die wie ein ganz normaler Bestandteil der jeweiligen Umgebung wirken.</p> <p>Ob es dazu kommt oder nicht, h&#228;ngt von vielen Faktoren ab. Ben&#246;tigt aber wird daf&#252;r in jedem Fall eine ultrapr&#228;zise Technologie zur Lokalisierung. Denn GPS und der wandernde blaue Punkt auf der Karten-Apps von Smartphones sind zwar n&#252;tzlich, um sich als Mensch in einer fremden Stadt zurechtzufinden. F&#252;r Maschinen aber reicht das nicht aus &#8211; sie ben&#246;tigen Ortsangaben mit einer Genauigkeit von Zentimetern.</p> <h3 class=„subheading“>Daten zusammengef&#252;gt</h3> <p>Das Londoner Start-up Scape will genau das liefern. Um innerhalb von zwei bis drei Sekunden exakt die Position zu bestimmen, nutzt der visuelle Positionierungsdienst des Unternehmens laut seinem Mitgr&#252;nder Edward Miller GPS und mehrere Kamera-Bilder. Daf&#252;r hat es mehr als 2 Milliarden Stra&#223;enbilder gesammelt und pr&#228;zise 3D-Karten von mehr als 100 St&#228;dten weltweit erstellt, darunter London, San Francisco, Paris, Moskau und Tokio. Einige der Daten stammen von Scape-Besch&#228;ftigten, die auf Fahrr&#228;dern mit Kameras St&#228;dte durchkreuzt haben, aber die Plattform kann Bilder aus jeder Quelle verarbeiten.</p> <p>Bei der Nutzung extrahieren die Algorithmen von Scape aus jedem Bild die &#8222;points of interest&#8220; (wie Stra&#223;enschilder, Schaufenster oder Laternen) und vergleichen sie mit den anderen Eintr&#228;gen dazu in der riesigen Datenbank. Mit Hilfe von Triangulation bestimmt das System dann Winkel und Entfernung der einzelnen Aufnahmen und meldet den exakten Standort an den Nutzer zur&#252;ck. Derartige Genauigkeit erlaubt eine bessere Positionierung von AR-Informationen in der realen Welt, als es mit GPS oder anderen Technologien m&#246;glich w&#228;re.</p> <p>&#8222;Scape bringt uns auf die n&#228;chste Ebene. Es geht uns darum, diese M&#246;glichkeiten in eine komplette Stadt zu bringen, die lebt und atmet&#8220;, sagt Miller.</p> <h3 class=„subheading“>Virtuelle Drachen</h3> <p>Bereits heute gibt es einige interessante Anwendungen f&#252;r Augmented Reality (AR), die meisten davon im Unterhaltungsbereich. Erst Anfang April feierte Snapchat den Start der letzten Staffel von Game of Thrones mit der <a href=„https://adage.com/creativity/work/hbo-game-thrones-snapchat-lens/2164786“><strong>Freisetzung von virtuellen Drachen [1]</strong></a> in New York. Viele Unternehmen aber wollen auch AR-Produkte, die an einen bestimmten Ort gebunden sind. Auf der Grundlage von GPS funktioniert das derzeit noch nicht besonders gut (von Spielen wie Pok&#233;mon Go abgesehen).</p> <p>&#8222;Mit bestehenden Positionierungstechnologien kann man mit einer Genauigkeit von wenigen Metern durch eine Stadt navigieren. Das ist in Ordnung, aber f&#252;r Augmented Reality braucht man einen viel h&#246;heren Pr&#228;zisionsgrad&#8220;, sagt Krystian Mikolajczyk, ein Experte f&#252;r maschinelles Sehen an der Imperial University.</p> <p>Nat&#252;rlich ist eine derart hohe Genauigkeit nicht nur f&#252;r AR-Anwendungen hilfreich. Die Herausforderung, wie Maschinen ihre Umgebung besser verstehen k&#246;nnen, besch&#228;ftigt derzeit viele verschiedene Unternehmen. Waymo zum Beispiel stattet seine <a href=„https://techcrunch.com/2018/02/28/waymo-360-degree-video-shows-how-autonomous-vehicles-work/“><strong>autonom fahrenden Autos [2]</strong></a> mit GPS, Lidar, Kameras und Radarsensoren aus. Starship Technologies, ein Anbieter von Roboter-Lieferdiensten, <a href=„https://www.wired.co.uk/article/starship-technologies-robots-deliveries-intuit-compass-test“><strong>geht &#228;hnlich vor [3]</strong></a>.</p> <h3 class=„subheading“>Billiger als Laser</h3> <p>Der Unterschied liegt im Grad der Genauigkeit &#8211; und in der Tatsache, dass Scape ausschlie&#223;lich mit Kameras arbeitet, die deutlich billiger sind als Lidar und andere Laser-Technologien. Au&#223;erdem unterscheidet sich die Scape-Plattform dadurch, dass sie Karten generiert, die mit Ver&#228;nderungen in der Umgebung zurechtkommen.</p> <p>Das ist wichtig, wenn man eine einheitliche Version der Welt f&#252;r Menschen wie Computer erzeugen m&#246;chte, damit Menschen von Robotern oder Drohnen gelieferte Waren auch wirklich finden.</p> <p>Mit seinem Positionierungsdienst will Scape zu einer grundlegenden Infrastruktur werden, auf deren Basis autonome Autos, Roboter und Dienste im Bereich Augmented Reality funktionieren. &#8222;Unser letztliches Ziel ist eine 1-zu-1-Karte der Welt, auf der alles enthalten ist&#8220;, sagt Miller, &#8222;wir wollen so unsichtbar werden, wie es GPS heute ist.&#8220;</p> <hr/><p><strong>URL dieses Artikels:</strong><br/><small>

http://www.heise.de/-4407817

</small></p> <p><strong>Links in diesem Artikel:</strong><br/><small>

<strong>[1]</strong>&#160;https://adage.com/creativity/work/hbo-game-thrones-snapchat-lens/2164786

</small><br/><small>

<strong>[2]</strong>&#160;https://techcrunch.com/2018/02/28/waymo-360-degree-video-shows-how-autonomous-vehicles-work/

</small><br/><small>

<strong>[3]</strong>&#160;https://www.wired.co.uk/article/starship-technologies-robots-deliveries-intuit-compass-test

</small><br/></p> <p class=„printversion__copyright“><em>Copyright &#169; 2019 Heise Medien</em></p> </html>

Cookies helfen bei der Bereitstellung von Inhalten. Diese Website verwendet Cookies. Mit der Nutzung der Website erklären Sie sich damit einverstanden, dass Cookies auf Ihrem Computer gespeichert werden. Außerdem bestätigen Sie, dass Sie unsere Datenschutzerklärung gelesen und verstanden haben. Wenn Sie nicht einverstanden sind, verlassen Sie die Website.Weitere Information