DVB-Cube BETA <<< Das deutsche PC und DVB-Forum >>>
Info Corner / Internet-via-Sat, Datendienste / IPTV / Videoportale / Internet TV & Radio => # News diverses ... => Thema gestartet von: SiLæncer am 17 November, 2006, 12:00
Titel: Roboter diverses ...
Beitrag von: SiLæncer am 17 November, 2006, 12:00
US-Wissenschaftler haben einen Roboter entwickelt, der eigene Defekte erkennen und sich daran anpassen kann. Josh Bongard und Kollegen stellen das System in der aktuellen Ausgabe des Wissenschaftsmagazins Science vor (J. Bongard, V. Zykov, H. Lipson, Resilient Machines Through Continuous Self-Modeling,Science Vol. 314 S.1118).
(http://www.heise.de/bilder/81134/0/0)
Die Maschine ist in der Lage, aus Sensordaten ein internes Modell ihres eigenen Aufbaus zu erzeugen und sich mit Hilfe dieses Modells dann so zu steuern, dass vorgegebene einfache Aufgaben erfüllt werden. Der Prozess verläuft iterativ: In der ersten Stufe bewegt der Roboter seine Gliedmaßen und liest die entsprechenden Sensordaten ein. Dann generiert er einen Satz vereinfachte Modelle seiner selbst und plant, mit Hilfe welcher Bewegungen er am besten unterscheiden kann, welches Modell der Realität entspricht. Nach 16 Durchläufen wird die Iteration abgebrochen und das beste Modell wird zur Ansteuerung der Gliedmaßen herangezogen. Verändert man nun den Aufbau des Roboters – in dem man beispielsweise einem vierbeinigen Roboter ein Bein kürzt –, kann die Software das interne Modell und die Steuerung entsprechend ändern.
Die Maschine kann sich auf diese Weise verblüffend gut an Veränderungen anpassen. Bongards und Kollegen wollten jedoch nicht nur ein robustes Robotersystem konstruieren. Sie sehen die Arbeit vielmehr als Beitrag zur Erkundung der Modelle, die biologische Lebewesen zur Ansteuerung ihrer Gliedmaßen verwenden.
Quelle : www.heise.de
Titel: Roboterkrankenschwestern schwirren ab 2010 durch die Gänge
Beitrag von: SiLæncer am 25 Januar, 2007, 10:13
EU fördert Forschungsarbeit
Die Überalterung der Gesellschaft und die massiven Einsparungen, die dem Gesundheitswesen auferlegt werden, werden nach Ansicht der EU dafür sorgen, dass sich künftig weniger Krankenhausmitarbeiter um noch mehr Patienten kümmern müssen. Den entstehenden Problemen will man nun mit Roboterpflegern begegnen, deren Entwicklung im Rahmen des EU-finanzierten Projektes IWARD fördert.
Die Roboter sollen in Schwärmen agieren und beispielsweise für Reinigungsaufgaben eingesetzt werden. Sie sollen aber auch Patienten und Objekte erkennen können und mit Ersteren kommunizieren sowie Transportaufgaben übernehmen. Hilfsbedürftige Patienten und Besucher des Krankenhauses sollen vielleicht sogar führen können.
Auch könnten die Krankenhaus-Roboter später Blut abnehmen und Fieber messen. Durch ihren Putzeinsatz ließen sich die hygienischen Verhältnisse in den Krankenhäusern verbessern und die Ausbreitung von multiresistenten Bakterienstämmen von Staphylococcus Aureus (MRSA) eindämmen. Zudem soll natürlich das Personal entlastet werden, das im besten Fall dann mehr Zeit für die Patienten hat.
Die Bauteile der "nursebots" sollen aus handelsüblichen Teilen bestehen, an die Module für besondere Aufgaben baukastenartig angebaut werden. So könnten sie für die unterschiedlichsten Aufgaben ausgerüstet werden bzw. sich selbst aus dem Regal bedienen. Das gewünschte Schwarmverhalten, das die Roboter ausführen sollen, erfordert nach Angaben der beteiligten Forscher noch grundlegende Arbeiten, damit das System zumindest teilweise autonom funktioniert.
Projektleiter Thomas Schlegl vom Fraunhofer Institut teilte mit, dass es nicht nur um mobile Roboter geht, sondern um ein System mit eingebauten Infoterminals und Führungssensoren. Damit ein vollständig dezentralisiertes Netzwerk entstehen kann, müssen die Roboter untereinander koordinieren, wie die anstehenden Aufgaben gelöst werden können, beispielsweise die Beseitigung von Schmutz oder der Transport von Medikamenten, so Schlegl weiter.
Um diese Kommunikation zu erledigen, über die beispielsweise auch Positionsangaben zur Kollisionsvermeidung und Aufklärungsergebnisse ausgetauscht werden sollen, könnten sich die Roboter Daten über WLAN, Bluetooth oder sogar Infrarot-Laser untereinander austauschen.
Das Projekt IWARD läuft bis Ende 2010. Die Teams stammen aus Forschungseinrichtungen aus Großbritannien, Frankreich, der Türkei, Italien, Irland, Spanien und Deutschland. Bis zum Ende der Laufzeit sollen funktionsfähige Prototypen entwickelt werden.
Quelle : www.golem.de
Titel: Re: Roboterkrankenschwestern schwirren ab 2010 durch die Gänge
Beitrag von: Jürgen am 25 Januar, 2007, 23:00
Zitat
Auch könnten die Krankenhaus-Roboter später Blut abnehmen
...das fehlt gerade noch. Ein Robo, der anfängt, dumm über Rollvenen zu schnarren... Sowas kann im wahrsten Sinne in's Auge gehen :o
Der Mensch ist kein Betriebsstoff oder sonstiges Objekt zur maschinellen Verarbeitung!
Anscheinend haben nicht nur allzu viele Bosse "Moderne Zeiten" nicht gesehen bzw. verstanden, sondern ebenso die Vertreter der Krankheits-Industrie ::)
Oder sie träumen doch tatsächlich vom "Central Srutinizer" (http://en.wikipedia.org/wiki/Joe's_Garage) :P Gimme that chromium leg...
Im Ernst, auch ein Kranker ist ein Mensch und hat verdient, wie ein solcher respektvoll und nicht als Gegenstand behandelt zu werden. Schande über die unmenschlichen Profit-Maximierer !!!
Titel: Vollelastische Roboter für Kraftwerksreparaturen
Beitrag von: SiLæncer am 11 Februar, 2007, 17:14
US-Forscher von der Tufts University in Boston entwickeln eine neue Generation von Robotern, die sich am biologischen Vorbild der Tabakschwärmer-Raupe orientieren. Sowohl Hülle als auch Aktuatoren des Roboters bestehen aus Kunststoffverbindungen. Die künstlichen Muskeln werden dabei von gekoppelten nichtlinearen Oszillatoren angeregt.
(http://www.heise.de/bilder/85091/0/0)
"Konventionelle Roboter können zwar äußerst schnell, stark und leistungsfähig sein, sind aber vor allem durch ihre steife Bauweise und ihre Unflexibilität in ihren Einsatzmöglichkeiten eingeschränkt", sagt der Biologe Barry Trimmer, der seit zehn Jahren die Anatomie des Tabakschwärmers untersucht und nun auf Roboter anzuwenden versucht. "Weichere, flexiblere Materialien sind der Schlüssel zu neuen leistungsfähigeren Robotern."
Die bisherigen Prototypen können bereits über ebene Flächen kriechen. Bis 2008 wollen Trimmer und seine Forschungspartner vom Eidgenössischen Polytechnikum im Lausanne eine weiterentwickelte Version fertigstellen, die auch einen Ast erklimmen kann. Als erste Einsatzgebiete sehen die Forscher Reparaturen an Raumfahrzeugen oder auch in Kernkraftwerken.
Quelle : www.heise.de
Titel: Berliner Museum zeigt Roboter-Ausstellung
Beitrag von: SiLæncer am 04 April, 2007, 15:57
"Schön, dass Sie gekommen sind!" Mit diesen Worten begrüßte Joachim Kallinich, Direktor des Berliner Museums für Kommunikation, die Teilnehmer einer Pressekonferenz zur Ausstellung "Die Roboter kommen!", die heute abend offiziell eröffnet wird. Es sind die Worte, mit denen seit der Wiedereröffnung des Hauses im Jahr 2000 drei mobile Roboter die Museumsbesucher begrüßen und Informationen anbieten. Über 10.000 Kilometer haben die digitalen Museumsführer seitdem zurückgelegt. Höchste Zeit, einen umfassenderen Blick aufs Thema zu werfen.
Konstruiert wurden die Museumsroboter im Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) in Stuttgart, das auch Kooperationspartner der aktuellen Sonderausstellung ist. Bis 2. September 2007 bietet sie Exponate aus (Vor-) Geschichte und Gegenwart der Robotik und zeigt Visionen, die die Entwicklung der Technologie voran getrieben haben und treiben.
Eine besondere Attraktion ist die französische Roboterband Les Robots Music, die von dem Ingenieur Edouard R. Diomgar in deutscher Kriegsgefangenschaft konzipiert und 1958 in die Welt gesetzt wurde. Die drei Blechmusikanten, die Akkordeon, Saxophon und Schlagzeug spielen, sind allerdings nur bis 15. April zu sehen. Für die Ausstellung wurden ihnen ein Dutzend Musikstücke einprogrammiert. Insgesamt umfasse ihr Repertoire etwa 500 Stücke, sagt der Sohn des Konstrukteurs Richard Diomgar, der zur Ausstellungseröffnung angereist ist. "Die Töne kommen wirklich aus den Instrumenten", betont er. Die Luft für Akkordeon und Saxophon wird allerdings durch ein Gebläse erzeugt.
Ein weiteres Highlight der Ausstellung illustriert die lange Tradition der mechanischen Musik: Der "Trompeterautomat" ist einer der letzten heute noch funktionstüchtigen Musikautomaten mit menschlichen Zügen, die insbesondere im 17. und 18. Jahrhundert beliebte Spielzeuge zur höfischen Unterhaltung waren. Entwickelt wurde er Anfang des 19. Jahrhunderts von zwei Uhrmachern aus Wien und Prag. Hier kommte der Luftdruck zur Erzeugung des Tons von einem durch Federspannung angetriebenen Blasebalg. Sechs verschiedene Melodien sind auf einer Stiftwalze gespeichert.
Bodo-Michael Baumunk, der gemeinsam mit Johanna Sänger die Ausstellung konzipiert hat, sieht einen "ursprünglichen Zusammenhang zwischen Robotik und Entertainment". Der "kommunikative Zusammenhang von Robotern und Publikum" sei schon im 18. Jahrhundert zentral gewesen. Die Menschen seien fasziniert davon gewesen, menschenähnliche Maschinen zu schaffen. Dabei ist Baumunk ein interessantes Detail aufgefallen: "Frühe Roboter konnten immer rauchen oder galant Feuer geben."
In drei Blöcke haben die Kuratoren die Ausstellung untergliedert: Rückschau, Vorschau und Umschau. Auf einen chronologischen Aufbau nach dem Schema Vergangenheit-Gegenwart-Zukunft haben sie aber bewusst verzichtet. "Das passt nicht", so Baumunk. "Vieles überlappt sich und läuft parallel." Stattdessen wurde als gestalterisches Prinzip das der Überblendung gewählt. Beim RoboCup, der mit Fußball spielenden Robotern nicht nur das Publikum unterhält, sondern auch handfeste Forschung betreibt, vermischen sich Ernst und Spiel. Auch Exponate der Science Fiction stehen gleich neben Industrierobotern der Gegenwart und verdeutlichen auf diese Weise, wie stark sich Vision und Realität wechselseitig beeinflussen.
Johanna Sänger hob als besonderen Schwerpunkt die Kunst der zwanziger Jahre hervor, die sich für die Logik mechanischer Körperbewegungen interessierte und in der Ausstellung durch das Bauhaus repräsentiert wird. Natürlich gibt es auch eine Nachbildung der Roboterfrau Maria aus Fritz Langs legendärem Film "Metropolis".
Die aktuelle Robotik bewegt sich in dem Spannungsfeld zwischen anwendungsorientierten Entwicklungen und dem Wunsch, durch die Konstruktion menschenähnlicher Maschinen mehr über den Menschen zu lernen. Der scheidende IPA-Direktor Rolf Dieter Schraft, ließ bei seiner Präsentation keinen Zweifel daran, dass er zur Anwenderfraktion neigt. Demnach wird die Roboterforschung vom Traum nach einem jederzeit verfügbaren, mechanischen Sklaven vorangetrieben, wie es in einer Publikation des IPA einmal hieß.
Quelle : www.heise.de
Titel: Roboter- Ausstellung: Das Konzert der Blechmänner
Beitrag von: SiLæncer am 12 April, 2007, 12:52
Putzen, Musizieren, Reiten, Kicken: Es gibt kaum etwas, das Roboter nicht können. Die Entwicklung der Maschinenmenschen zeigt jetzt eine Berliner Ausstellung. Publikumslieblinge sind die Blechfiguren aus den fünfziger Jahren - die sind so schön harmlos.
Berlin - Dieser Band fehlt der Soul. Routiniert und etwas blechern spielt das Trio aus Frankreich Hits wie "An der schönen blauen Donau" und "I want to be in America". Das Publikum klatscht begeistert, denn die drei Musiker an Akkordeon, Saxophon und Schlagzeug sind mannsgroße, golden glänzende Roboter. 500 Titel können sie spielen - nicht schlecht für fast 50 Jahre alte Blechmänner.
(http://www.spiegel.de/img/0,1020,843706,00.jpg)
"Les Robots Music" hat 1958 der französische Tüftler Edouard R. Diomgar entworfen. Noch bis Sonntag tritt die blecherne Band im Berliner Museum für Kommunikation auf. Dort zeigt die Ausstellung "Die Roboter kommen!" bis zum 2. September alte und neue Service-, Industrie- und Spielzeugroboter. Was ein Roboter ist, definiert Ausstellungsmacherin Johanna Sänger so: "Alles, was Arbeiten erledigt und über eine künstliche Intelligenz verfügt".
Die Intelligenz der Staubsauger
Anschaulich macht diese funktionale Definition ein riesiger Roboter am Museumseingang, der normalerweise in einer deutschen Chrysler-Fabrik Armaturenbretter in Neuwagen montiert. Er begrüßt die Ausstellungsbesucher, indem er seinen Greifarm geräuschvoll hin- und herschwingt. Manche seiner Kollegen bemerkt man kaum, zum Beispiel den fußballgroßen "Robo Cleaner RC3000". Dieser kleine runde Staubsaugerroboter flitzt kreuz und quer durch die drei Ausstellungsräume und saugt den Boden - 20 Zentimeter in der Sekunde schnell und so leise wie ein Computerlüfter.
(http://www.spiegel.de/img/0,1020,843709,00.jpg)
Andere Robos bleiben trotz Mobilitätsfunktion statisch. So kann man den krabbelnden Gang des spinnenartigen Geländeroboters "Sechsbeiner MAX" nur erahnen und auch der Prototyp "Rohrkrabbler MORITZ" verharrt still in der Vitrine. Diese Roboter sind aufgrund ihrer schwierigen Beinkoordinationen besonders komplex, sie sollen in für Menschen schwierig oder gefährlich zugänglichen Gebieten eingesetzt werden.
Klobig, glänzend, liebenswert
Ganz technisch unprätentiös sind dafür die überdimensionalen Blechmänner aus den fünfziger Jahren, dem goldenen Zeitalter der Werberoboter. "Roberto", der Klotzartige - man könnte glatt glauben, er wäre aus mit Silberfolie überzogenen Pappkartons gebastelt - erreichte seinerzeit trotz geringen technischen Vermögens Kultstatus. Er wurde allerdings in jeder Hinsicht von seinem 2,37 Meter großen Schweizer Kollegen und Zeitgenossen "Sabor" übertrumpft. Der konnte nämlich nicht nur laufen, rauchen und sprechen, sondern flirtete auch gern mit schönen Frauen und reiste als Werbeträger um die Welt.
Maschinenmenschen als Filmstars
In der Kunst haben Roboter schon früh eine wichtige Rolle gespielt: Ein Schriftsteller gab ihnen ihren Namen. 1921 veröffentlichte der tschechische Autor Karel Capek sein Theaterstück "R.U.R. - Rossum's Universal Robots". So setzte sich die heute gängige Bezeichnung für jene Automatenpuppen durch, die schon im 19. Jahrhundert Menschen faszinierten. In der Berliner Ausstellung sind einige der Stars unter den Robotern zu sehen. "Maschinen-Maria" zum Beispiel aus Fritz Langs Metropolis (1926) und die skelettartige Androidin aus dem Musikvideo zu "All is full of love" (1999) der Sängerin Björk.
Heute können Roboter reiten und kicken
Neben "Maschinen-Maria" sitzt der nur aus einem Oberkörper bestehende Jockeyroboter "K-MEL", der die Kinderjockeys in den Kamelrennen der Golf-Staaten ersetzen soll. Zu sehen sind auch die variationsreichen Fußballroboter, die alljährlich bei den "RoboCups" gegeneinander antreten - bis 2050 sollen sie sich sogar mit menschlichen Spielern messen.
(http://www.spiegel.de/img/0,1020,843712,00.jpg)
Und natürlich gibt es da noch die Spielzeugroboter. In einer großen Vitrine ist eine regelrechte Armee der bunten Spielgefährten aufgestellt. Ihr Besitzer, der Literatur- und Medienprofessor Jörg Jochen Berns, hat sie in einer eigenwilligen Typologie geordnet: kastenförmige, rundliche, ritterartige, skelett- und tierähnliche Roboter stehen da zusammen.
Kaum jemand will Roboter als Haushaltshilfe
Die Besucher begutachten die Roboter interessiert - aus der Distanz. Als Helfer im Haushalt will sie kaum jemand um sich haben. Brigitte Ilmen, die ihren neunjährigen Enkel Joshua begleitet, findet die Vorstellung abschreckend. Aber "das könnte an meiner Generation liegen". Auch Camillo, 9, und Elias Weber, 11, stehen der Idee kritisch gegenüber, wenn auch aus anderen Gründen. Natürlich wäre es sehr praktisch, zu Hause einen Roboter zu haben, der sie rundum versorgen kann. Aber "das Problem ist, dass die Menschen dann ja fett und unsportlich werden".
(http://www.spiegel.de/img/0,1020,843718,00.jpg)
Dass die Abhängigkeit der Menschen so groß wird, dass sie eines Tages von Robotern dominiert oder ersetzt werden könnten, glaubt allerdings niemand. "Sie werden niemals so intelligent sein, dass sie unsere Komplexität erreichen", glaubt Ausstellungsmacherin Sänger. Joshua bringt die Beziehung zwischen Mensch und Maschine auf den Punkt: "Roboter sind doch nur die Diener der Menschen."
Quelle : www.spiegel.de
Titel: Roboter mit Körpersprache und Tastsinn
Beitrag von: SiLæncer am 01 April, 2010, 11:26
Roboter sollen für den Menschen ein guter Gefährte sein. Das ist ein Ziel vieler Roboterentwickler und wohl auch der potenziellen Anwender. Aber was macht so eine Maschine zu einem guten Gefährten? Diese Frage zog sich wie ein roter Faden durch die Diskussionen am ersten Tag des zweitägigen Symposiums New Frontiers in Human-Robot Interaction, das im Rahmen der Jahrestagung der Society for the Study of Artificial Intelligence and Simulation of Behaviour in Leicester stattfindet.
Auffallend ist, dass sich die Forscher von der Idee zu verabschieden scheinen, dass Roboter, die mit Menschen interagieren, selber menschenähnlich sein müssten. Selbst in Japan, wo Roboter traditionell sehr liebevoll anhand natürlicher Vorbilder gestaltet werden, weicht dieses Dogma offenbar langsam auf. Menschenähnlichkeit könne beim Design kein dominierender Faktor sein, erklärte etwa Kutaro Funakoshi vom Honda Research Institute. Dabei ging es ihm in seinem Vortrag vorrangig um die Gestaltung des Sprachdialogs zwischen Mensch und Roboter und dabei vor allem um die Frage, wie lange der Roboter mit seiner Antwort warten soll, nachdem der Mensch seine Rede beendet hat. Eine zu schnelle Reaktion könne dazu führen, dass beide gleichzeitig reden, eine zu lange Pause dagegen könne als Unaufmerksamkeit gedeutet werden.
Funakoshi und sein Forschungsteam führten ein Experiment durch, bei dem der Roboter im Dialog mit Menschen die Reservierung eines Hotelzimmers vornehmen sollte. Dabei signalisierte ein blinkendes Lämpchen dem Kunden, dass der Roboter ihm zuhörte. Für das Experiment wurde zwar ein humanoider Roboter verwendet, das Blinklicht hingegen war alles andere als menschenähnlich. Es erwies sich indessen als wirkungsvoller Ersatz für die ansonsten aufwendig zu realisierende Gestik und Mimik, die in der menschlichen Kommunikation üblicherweise Aufmerksamkeit signalisiert.
Ohne Körpersprache werden Roboter auf lange Sicht nicht auskommen, brauchen dafür aber nicht zwingend einen am Menschen oder anderen Lebewesen orientierten Körperbau. Cristian Bogdan vom Royal Institute of Technology in Stockholm berichtete etwa, wie im Rahmen des EU-Projektes CommRob einem Einkaufswagen die subtile Kommunikation über Körpergesten beigebracht wird. Obwohl diese Gesten bei Tests mit Menschen zumeist gar nicht bewusst wahrgenommen wurden, hatten sie doch deutliche Auswirkungen: Wenn der Roboter-Einkaufswagen die Kunden auf Produkte aufmerksam machte und dabei langsamer fuhr, wurde mehr eingekauft, als wenn die Geschwindigkeit konstant blieb.
Als Inspirationsquelle bleibt der menschliche Körper gleichwohl vorerst unübertroffen. Nach wie vor widmen sich viele Projekte der Nachbildung der menschlichen Körpersprache. So präsentierte Stefan Sosnowski den Roboterkopf "Eddie", der an der Technischen Universität München entwickelt wird. Anhand eines Gesichtsmodells mit 113 Markierungspunkten kann Eddie die Emotionen menschlicher Nutzer erkennen und in seinem eigenen Gesicht spiegeln. Trotz seiner 23 Freiheitsgrade im Gesicht sowie fünf weiterer Freiheitsgrade im Nacken ist Eddie von der Subtilität menschlicher Mimik noch weit entfernt. Dafür verfügt er über Ausdrucksmöglichkeiten, die den meisten Menschen abgehen: So klappt der Roboter gelegentlich wie eine Echse die Ohren vor und zurück.
Leila Takayama von der US-Firma Willow Garage wies in ihrem Vortrag darauf hin, dass Besitzer von Haustieren Roboter zumeist besser zu verstehen scheinen. Offenbar hilft die Erfahrung mit Kommunikation über Speziesgrenzen hinweg auch beim Umgang mit Robotern.
Wie wichtig die Gestaltung der Interaktion Mensch-Roboter ist, zeigte auch Patrizia Marti von der Universität von Siena mit eindrucksvollen Videoaufnahmen. Kinder mit geistigen und körperlichen Behinderungen hatten keine Scheu sich auf einen Roboter einzulassen, obwohl der wie ein fahrender Drucker aussah. Entscheidend war, dass der Roboter auf die Kinder reagierte und auf unterschiedliche Weise Emotionen zeigen konnte. Die Maschine konnte etwa mit einer Art Fell ausgestattet werden, das auf Berührung reagierte oder bei Annäherung eines Menschen die Haare aufrichtete. Marti registrierte ein wachsendes Interesse an ästhetischen Aspekten von interaktiven Systemen, plädierte aber dafür, die Ästhetik als Bestandteil der Interaktion und nicht nur der äußeren Erscheinung zu begreifen.
Die Interaktion zwischen Mensch und Roboter wird gewiss von Projekten wie Roboskin profitieren, bei denen es darum geht, Robotern einen Tastsinn zu verleihen. Für die Prototypen werden derzeit die Tastsensoren des iPhones verwendet, es wird aber auch an neuen Sensortechnologien geforscht, wie Perla Maiolino von der University of Genova berichtete. Solche taktilen Sensoren sollen zum einen die Sicherheit erhöhen, indem sie Robotern das reflexartige Zurückweichen bei unerwünschten Berührungen ermöglichen. Sie können aber auch das Greifverhalten verbessern, da sich die Hände besser den zu greifenden Gegenständen anpassen können. Die Forschungen in diesem Gebiet sind aber noch in einem frühen Stadium. Ein Problem ist es etwa, Berührungen zu klassifizieren und schmerzhafte von nicht-schmerzhaften zu unterscheiden. Menschen fällt diese Unterscheidung leicht, Roboter dürften da noch einen dornenreichen Lernprozess vor sich haben.
Quelle : www.heise.de
Titel: Die Robotergefährten der Zukunft
Beitrag von: SiLæncer am 02 April, 2010, 11:51
Zunächst eine Entwarnung: Niemand muss befürchten, demnächst im Supermarkt von einem autonomen Einkaufswagen zu den Produkten geführt zu werden, die er eigentlich gar nicht kaufen will. Nachdem Cristian Bogdan vom Royal Institute of Technology in Stockholm gestern am ersten Tag des zweitägigen Symposiums New Frontiers in Human-Robot Interaction in Leicester berichtete, wie ein Roboter-Einkaufswagen durch gezielte Verlangsamung die Aufmerksamkeit der Kunden auf bestimmte Artikel lenken konnte, musste er in einem weiteren Vortrag am zweiten Tag einräumen: "Das Design von Bewegungsabläufen ist sehr viel komplexer als das Design der ersten Bewegung."
Manche Nutzer, so Bogdan, hätten sich gegen die Bewegungen des Roboters gewehrt und ihn auf den alten Weg zurück gedrängt. Überhaupt sei die Interaktion zwischen Mensch und Roboter während des Laufens schwierig: Das Laufen selbst lenkt ab, der Touchscreen ist schwierig zu bedienen, Sprachkommunikation wird durch Motorgeräusche und Vibrationen gestört.
Die Übernahme der Herrschaft durch Roboter steht also nicht unmittelbar bevor. Das ist ein Resümee, das sich auch aus anderen Vorträgen ziehen lässt. Mohammadreza Asghari Oskoei (University of Hertfordshire) etwa schilderte, wie einem Roboter beigebracht werden kann, einen angemessenen Abstand zu Menschen einzuhalten. Auf die Frage, wie sich verhindern ließe, dass der Roboter ständig zurückweicht, wenn man ihm etwas übergeben möchte, hatte er jedoch noch keine Antwort. Das erfordere weitere Studien zum Verständnis der menschlichen Körpersprache. Nach so einem Vortrag fürchtet niemand die Attacke eines Terminators hinter der nächsten Straßenecke.
Andere Ängste sind realistischer – etwa die, als alter Mensch einem Pflegeroboter ausgeliefert zu sein. Amanda Sharkey von der University of Sheffield behandelte in ihrem Vortrag ethische Fragen des Einsatzes von Robotern in der Altenpflege. Sie unterschied drei Technologien: Assistenzroboter helfen bei der Verrichtung alltäglicher Prozeduren, können einen Menschen etwa füttern oder aus dem Bett in den Rollstuhl heben. Andere Systeme haben vorrangig Überwachungsfunktionen und können gegebenenfalls Hilfe rufen. Eine dritte Kategorie schließlich sind die Robotergefährten, zumeist gestaltet wie kleine Tiere, die alten Menschen Gesellschaft leisten. Es sind wohl vor allem diese mechanischen Kuscheltiere, die bei vielen Beobachtern das Gefühl hervorrufen, die Alten würden damit hinters Licht geführt und in ihrer Würde verletzt.
Sharkey wies allerdings darauf hin, dass solche Roboter in Altenheimen auch zur Intensivierung von Kontakten der Bewohner untereinander geführt haben. Studien deuteten zudem auf eine Verbesserung der Lebensqualität hin. Es mag auch schlicht eine Frage der Zeit sein: Die heutigen Prototypen werden schließlich an Menschen erprobt, denen die Technologie weitgehend fremd sein dürfte. Wer dagegen heute mit Spielzeugrobotern im Kinderzimmer aufwächst, dürfte im Alter weniger Probleme haben, sich von einem Roboter helfen zu lassen.
Mit der Gestaltung künstlicher Gefährten beschäftigt sich das EU-Projekt Companions, das Yorick Wilks von der University of Sheffield zu Beginn seines Vortrags erwähnte. Er hob hervor, dass es dabei nicht um Chatbots oder Internetagenten für spezifische Aufgaben ginge. Ohne eine zentrale Aufgabe sollten solche Gefährten die Konservation mit dem Menschen vielmehr möglichst ein Leben lang durchhalten und eine angemessene, vielleicht emotionale Beziehung aufbauen.
Eine Fülle von Fragen stelle sich in diesem Zusammenhang, etwa zum Ausmaß der Zuwendung, die der Robotergefährte aufbringen sollte. Studien hätten gezeigt, dass Menschen höfliche Maschinen mögen, sagte Wilks. Sie dürften aber nicht zu höflich sein. Die äußere Erscheinung ist ebenfalls nicht einfach zu wählen. Braucht der Gefährte ein Gesicht? Es könne besser sein, so Wilks, ihm keinen Mund zu geben statt eines schlecht mit der Rede synchronisierten. Er brauche zudem Ziele, die darüber hinaus gingen, nur nett zu seinem Nutzer zu sein.
Vielleicht sollte er noch nicht einmal ständig nett sein. Unter Umständen ist es zweckmäßig, den Gefährten mit mehreren Persönlichkeiten auszustatten, sodass er zum Beispiel als Sporttrainer strenger und fordernder auftritt, als wenn sein Nutzer von einem anstrengenden Arbeitstag nach Hause kommt.
Ein ganz wichtiger Aspekt ist die Sicherheit. Ein Robotergefährte speichert mit der Zeit mehr und mehr Wissen über seinen Nutzer. Mit wem darf er darüber sprechen? Wilks verwies auf das historische Beispiel der „Victorian Ladies Companions“: Die Eigenschaften, die von solchen Begleiterinnen vornehmer Damen erwartet wurden, böten eine gute Richtschnur für Robotergefährten.
Die Erwartungen an Roboter hängen indessen stark vom kulturellen Hintergrund ab. Laurel Riek von der University of Cambridge stellte eine Studie vor, die in den Vereinigten Arabischen Emiraten durchgeführt wurde. In einem Einkaufszentrum in El Ain stellten die Forscher einen Roboter auf, dessen äußere Erscheinung an den bekannten islamischen Philosophen Ibn Sina (geboren 980) angelehnt war und der in der Lage war, in begrenztem Rahmen Dialoge zu führen. Besucher des Einkaufszentrums wurden aufgefordert, mit dem Roboter zu sprechen und wurden hinterher dazu befragt.
Insgesamt seien die Reaktion positiver gewesen als erwartet, sagte Riek. Menschen aus der Golfregion hätten den Roboter jedoch mehr gemocht als solche aus afrikanischen Ländern. Leute mit höherem Bildungsgrad seien ablehnender gewesen als weniger Gebildete. Den Forschern zufolge war dies die erste Studie, die sich mit der kulturellen Einbettung von Robotern im mittleren Osten beschäftigte. Für zukünftige Experimente soll der Fragebogen weiter verfeinert werden.
Die Präsentation von vorläufigen Ergebnissen noch laufender Studien war einer der Vorzüge des Symposiums, das von Kerstin Dautenhahn und Joe Saunders (beide University of Hertfordshire) mit viel Raum für Diskussion organisiert wurde. Es bot anregende Einblicke in ein sehr dynamisches Forschungsfeld, in dem Wissenschaftler aus sehr verschiedenen Disziplinen zusammenkommen. Dabei kommt es gelegentlich auch zu Reibereien: So berichtete Astrid Weiss (Universität Salzburg), dass sie bei der Verteidigung ihrer Dissertation vor zwei Wochen von einem Professor gefragt worden sei, wie sie es wagen könne, den Begriff „sozial“ auf das Verhältnis zwischen Mensch und Roboter anzuwenden. Was sie geantwortet hat, hat Weiss leider nicht verraten. Vielleicht sollte sie den Professor einfach zum nächsten Symposium einladen.
Quelle : www.heise.de
Titel: Lola geht
Beitrag von: SiLæncer am 21 April, 2010, 12:27
Humanoider Roboter aus München zur Erforschung des Gehens
Zwei Beine, Arme ohne Hände und zwei Kameras anstelle eines Gesichts: Auf Ästhetik haben die Entwickler des humanoiden Roboters Lola keinen Wert gelegt. Doch die Leistungen der Roboterdame lassen sich sehen: Sie beherrscht den aufrechten Gang und erkennt Hindernisse.
Noch hängt Lola an zwei Seilen einige Zentimeter über dem Boden und wiegt leicht hin und her. Lola ist ein Roboter, genauer gesagt ein humanoider Roboter. Sie ist 1,80 m groß und wiegt rund 60 kg. Eine Schönheit ist sie nicht: Ihre Beine bestehen aus Aluminiumschienen, ihre Arme aus Röhren. An Stelle eines Kopfes hat sie zwei Kameras. Ihr Körper ist übersät mit Schaltelementen, die mit Kabeln verbunden sind.
Lola rollt den Fuß ab
Dann wird Lola sanft aus der Schwebe herabgelassen und fängt an zu laufen. Im Unterschied zu vielen anderen Laufrobotern verfügt Lola über ein Zehgelenk. Das ermöglicht es ihr, wie ein Mensch mit dem Fuß abzurollen. Tatsächlich ist ihr Gang durchaus mit dem eines Menschen vergleichbar; manch einen Besucher der Hannover Messe am Stand der Technischen Universität (TU) in München (Halle 2, Stand A54) überkommt das Gruseln.
Lola ist ein Forschungsroboter, der dazu dienen soll, den Gang auf zwei Beinen zu studieren, erklärt Valerio Favot von der TU München im Gespräch mit Golem.de. Entwickelt wurde sie in einer Kooperation des Lehrstuhls für Angewandte Mechanik der TU und des Instituts für Technik Autonomer System (TAS) an der ebenfalls in München beheimateten Universität der Bundeswehr. Letztere hat das visuelle System für den Roboter geliefert, der an der TU entwickelt und gebaut wurde. Das Institut für Angewandte Mechanik ist auch an dem 2008 vorgestellten Projekt Cyberwalk beteiligt.
Motoren und Sensoren
Um gehen zu können, hat Lola 25 Gelenke, die jeweils mit einem Motor angetrieben werden. Jedes Bein verfügt über sieben, jeder Arm über drei Gelenke. Das Becken hat zwei Gelenke, und die letzten drei sind für die Bewegungen des Kamerakopfes zuständig. Dazu verfügt Lola über ein reiches Arsenal an Sensoren: Jedes der Gelenke hat Sensoren, die die aktuelle Stellung und die Geschwindigkeit erfassen, mit denen es bewegt wird. Hinzu kommen Kraftmesser in den Füßen, die den Kontakt zum Boden erfassen und analysieren. Im Körperzentrum schließlich sitzt ein Interialmesssystem, das die Position des Körpers im Raum sowie die Beschleunigung misst.
Arme nur zum Ausbalancieren
Da Lolas einzige Bestimmung das Gehen ist, enden ihre Arme nicht in Händen. An deren Stellen sitzen je zwei schwarze Scheiben, so dass es ein wenig aussieht, als stemme sie Hanteln. Die Arme seien jedoch wichtig, um damit den Gang auszubalancieren, sagt Favot.
Lola hat ihren eigenen Kopf
Auf den Boden herabgelassen, macht Lola erst ein paar Schritte zur Seite. Dann geht sie geradeaus. Die Berechnung des Gehens übernimmt Lola selbst - dafür ist ein Computer mit einem Zweikernprozessor auf dem Rücken des Roboters verantwortlich. Das bedeutet: Die Wissenschaftler geben ein Ziel vor, Lola wählt den Weg dahin dann selbstständig aus.
Im zweiten Teil der Vorführung kommt das vom TAS entwickelte Sehsystem zum Einsatz: Die Wissenschaftler stellen Lola Hindernisse in den Weg, denen der Roboter ausweichen muss. Mit den beiden Kameras, die eine Auflösung von jeweils 5 Megapixeln haben, erfasst Lola ihre Umwelt. Steht ihr etwa ein Stuhl oder ein Mensch im Weg, erkennt sie diesen und geht darum herum. Verstellen ihr zwei Menschen den Weg und der Durchgang zwischen beiden ist ihr zu schmal, tritt Lola den Rückzug an und versucht, das Hindernis zu umgehen.
Anders als die Berechnung des Gehens werden die Daten des Sehsystems nicht vom Roboter selbst berechnet. Das sei zu aufwendig, erklärt Favot. Es braucht gleich drei Computer, um genug Rechenkapazität dafür aufzubringen. Mit den Rechnern, die abseits in einem Serverschrank untergebracht sind, ist Lola per Kabel verbunden.
Älterer Bruder
Sechs Jahre hat die Entwicklung des Laufroboters gedauert. Die Wissenschaftler konnten sich dabei auf die Erfahrungen stützen, die sie mit Lolas älterem Bruder gemacht haben, dem 2001 fertiggestellten Laufroboter Johnnie.
Seit drei Wochen laufe Lola jetzt, sagt Favot, und klingt dabei fast wie ein stolzer Vater. Derzeit geht sie noch recht zaghaft: 2 km/h schafft sie. Ziel sei, so Favot, dass der Roboter Lola irgendwann 5 km/h erreiche, was etwa der normalen Gehgeschwindigkeit des Menschen entspricht. Rennen wird Lola wohl nie.
Quelle : www.golem.de
Titel: Re: Lola geht
Beitrag von: Jürgen am 21 April, 2010, 22:40
Rennen bedeutet Laufen, physi(kali)sch eine völlig andere Art der Fortbewegung. Kennzeichnend ist dabei, dass es Phasen gibt, in denen kein Bein den Boden berührt. Der dafür erforderliche Rechenaufwand ist bei sonst gleicher Mechanik ungleich höher. Und die Beanspruchung des Materials ebenso. Solch ein Schritt liegt daher sicherlich noch in weiterer Ferne. Dennoch kann ich mir vorstellen, dass Polizei, Militär und Kriminelle schon träumen, von Robocop, Robokiller, Robothief...
Titel: Roboter aus DNA-Strängen
Beitrag von: SiLæncer am 25 Mai, 2010, 08:39
Molekulare Roboter gehören zur Gründungsfolklore der Nanotechnik. 1986 skizzierte sie erstmals der Ingenieur Eric Drexler als winzige Maschinen aus diamanantartigen Verbindungen, die eines Tages in gewaltigen Schwärmen sämtliche Gegenstände Atom für Atom zusammenbauen könnten. Gewissermaßen als Zwischenstufe zu diesen molekularen „Assemblern“ sah Drexler Nanomaschinen, die aus biologischen Molekülen konstruiert werden. Diesem Ziel sind nun zwei US-Forschungsteams einen Schritt näher gekommen, berichtet Technology Review in seiner Online-Ausgabe: Sie haben chemisch programmierbare Strukturen aus DNA-Strängen hergestellt - spinnenartige Gebilde, die sich gezielt fortbewegen und Goldteilchen transportieren können.
Bereits in den 90er Jahren schuf der New Yorker Chemiker Ned Seeman Würfel und Kreuze aus DNA-Abschnitten, später folgten „Nano-Kräne“. Besonders bekannt wurde 2006 das „DNA-Origami“ des Caltech-Forschers Paul Rothemund: Er erzeugte aus langen DNA-Strängen Smileys und andere flächige Figuren – die Basenfolgen waren am Rechner so entworfen, dass sich die Stränge falteten und einzelne Abschnitte miteinander verbanden. Zusammen mit Milan Stojanovic, einem der führenden Forscher an DNA-Schaltkreisen, und weiteren Kollegen legen beide jetzt nach.
In der einen Arbeit haben Gruppen der Columbia University, der Arizona State University und des California Institute of Technology (Caltech) ein einfaches molekulares Straßennetz konstruiert, über das eine vierbeinige „Nano-Spinne“ läuft. Es besteht aus einer nach Rothemunds Origami-Prinzip gebildeten Fläche aus DNA. In regelmäßigen Abständen ragen aus ihr lose Enden von einzelnen DNA-Strängen wie Pfosten empor. An einige von denen können sich die „Beine“ der Nano-Spinne – ebenfalls DNA-Stränge – anlagern, wenn ihre Basenfolgen sich entsprechen. Drei Beine dienen dabei zur Fortbewegung, das vierte fungiert als Standbein. Den „Körper“ wiederum bildet das Protein Streptavidin.
Orang-Utans haben keine Höhenangst. Das ist zunächst nicht weiter überraschend bei Baumbewohnern wie ihnen, doch damit gibt sich Susannah Thorpe nicht zufrieden. Die Biologin von der University of Birmingham möchte ganz genau wissen, wie es die bis zu 100 Kilo schweren Menschenaffen schaffen, sicher ihren Weg durch die komplexe, sich ständig verändernde Welt der Baumkronen im tropischen Regenwald zu finden. Künstliche Intelligenz soll ihr helfen, die natürliche Intelligenz der Primaten besser zu verstehen.
Auf Sumatra beobachtete Thorpe, dass Orang-Utans auf ihren Wegen durch die Baumwipfel nur sehr selten in Sackgassen geraten und umkehren müssen. Lücken im Baumbestand überwinden sie zum Beispiel, indem sie einen kleineren, dünneren Baum erklimmen und ihn wie ein Kind auf einer Schaukel in immer größere Schwingungen versetzen, bis sie der anderen Seite nahe genug kommen. Wie aber, fragt sich die Wissenschaftlerin, können sie aus der Ferne die Tragkraft der Äste und Lianen so zuverlässig einschätzen? Wie haben sie das gelernt?
Bei der Suche nach Antworten will sich Thorpe jetzt vermehrt auf Methoden und Begrifflichkeiten der Künstlichen Intelligenz stützen. Sie ist überzeugt, dass die für Roboter entwickelten Lernverfahren helfen können, das Verhalten der Menschenaffen zu erklären. Computersimulationen der Lebenswelt von Orang-Utans seien zwar noch "ein Stück weit weg", räumt die Biologin ein. "Doch der Denkansatz der KI hilft uns sehr, die Probleme aus der Perspektive der Tiere zu verstehen." Allzu leicht gerieten Forscher ansonsten in die Falle, alles nur aus menschlicher Sicht wahrzunehmen und zu deuten.
Was Thorpe an der im Computer erschaffenen Intelligenz fasziniert, ist der Blickwinkel des Designers. Zwar ist die natürliche Intelligenz der Tiere bislang noch jedem Computer überlegen, aber dafür ist die künstliche Intelligenz bis ins kleinste Detail bekannt. Mit ihr lassen sich Experimente durchführen, die mit Lebewesen nicht möglich oder nicht vertretbar wären. Gezielt können etwa bei Robotern Teile des Systems deaktiviert, der Informationsfluss gefiltert werden. Das daraus resultierende Verhalten lässt sich wiederum mit Tierbeobachtungen vergleichen und erlaubt Rückschlüsse auf deren Wahrnehmung und Denken.
Dass Biologen sich auf diese Weise von Informatikern anregen lassen, ist relativ neu. Bislang verlief der Wissenstransfer überwiegend in der anderen Richtung, etwa wenn Ingenieure sich an biologischen Vorbildern orientierten. So entdeckte der Neuroinformatiker Mandyam Srinivasan vor gut zehn Jahren an der Australian National University, dass sich Bienen am optischen Fluss orientieren. Sie schätzen ihre Geschwindigkeit anhand des Rhythmus der seitlich vorbei ziehenden Umgebung und weichen so auch Hindernissen aus. Die Forschungen hatten von vornherein das Ziel, Navigationsverfahren für autonome Flugroboter zu entwickeln. Die haben die Bienenmethode mittlerweile auch tatsächlich erfolgreich kopiert. Jetzt helfen umgekehrt Roboter den Entomologen, noch tiefer ins Insektenhirn zu schauen.
Experimente mit Ameisen haben etwa gezeigt, dass die Tiere ein Bild ihres Ausgangspunktes abspeichern, um den Weg zurück zu finden. Paul Graham, der an der University of Sussex die Insect Navigation Group leitet, versucht nun im Roboterexperiment herauszufinden, wie detailliert diese Umgebungsbilder sein müssen. Er und seine Mitarbeiter komprimierten die Bilder der Panoramakamera auf einfache geometrische Muster, dennoch erkannte der Roboter darin noch genügend Ähnlichkeiten, um einen einmal gelernten Weg wiederzufinden. Wichtig war es, die einzelnen Bilder nicht nur mit der jeweiligen Position zu verknüpfen, sondern auch mit der dort erforderlichen Bewegungsrichtung. Damit ist natürlich nicht gesagt, dass Ameisen auf die gleiche Weise Bilder verarbeiten. Aber das Roboterexperiment gibt Hinweise, wie weitere Versuche mit Ameisen gestaltet werden müssen, um der Frage weiter auf den Grund zu gehen.
Nicht nur Insektenforscher profitieren von der Unterstützung durch Roboter. Die Vogelkundlerin Gail Patricelli (University of California) etwa untersucht mithilfe eines Roboters das Paarungsverhalten von Beifußhühnern. Ihren Roboterassistenten, herausgeputzt wie ein Beifußhuhnweibchen, schickt sie auf Schienen durch das Brutgebiet und registriert die Lockrufe der Männchen. Patricelli vermutet, dass die Männchen den Weibchen sehr zielgerichtet nachrufen. Diese Vermutung kann sie dank des Mikrofons an Bord des Roboters genauer als zuvor überprüfen.
Patricellis Roboter braucht für die Erfüllung seiner Aufgabe nicht viel Intelligenz. Der PoulBot dagegen, der in einem drei mal drei Meter großen Gehege an der Freien Universität Brüssel Hühnerküken betreut, soll mit der Zeit immer klüger werden. In dem gemeinsam mit der Polytechnischen Hochschule in Lausanne betriebenen Projekt soll mithilfe des Roboters die Entwicklung des Sozialverhaltens bei Hühnern studiert werden. Derzeit fährt der PoulBot auf einem Zufallskurs durchs Gehege, während die auf ihn als Muttertier geprägten Küken ihm folgen. Die Forscher beobachten dabei unter anderem die Abstände, die die Tiere sowohl zum Roboter wie auch zu ihren Geschwistern einhalten. Mit zunehmenden Fähigkeiten des Roboters sollen aber nach und nach auch komplexere Fragestellungen untersucht werden.
Sehr komplizierte Fragen könnte eines Tages Corvid aufwerfen, der gerade an der Technischen Universität Wien entsteht. Die Gestalt dieses Roboters ist dem Körperbau einer Krähe nachempfunden. Das bedeutet zunächst einmal, das dessen Kamera fest mit dem Greifer verbunden ist. Den Forschern soll das einen besseren Zugang zur Vogelperspektive ermöglichen, bei der die Augen stets dem Schnabel folgen. Krähenvögel sind dafür berühmt, dass sie mit ihrem Schnabel sehr geschickt die Umwelt manipulieren können. Die auf Neukaledonien lebende Geradschnabelkrähe kann sich sogar gezielt Werkzeuge anfertigen. Davon ist Corvid noch weit entfernt. Derzeit bewegt sich der Roboter noch auf Raupen durch die Gegend. Eine Krähe jedoch hat Füße, mit denen sie Gegenstände festhält, um sie mit dem Schnabel zu bearbeiten.
Früher oder später aber wird es möglich sein, einem Roboter die Geschicklichkeit und Intelligenz einer Krähe zu verleihen. Ein Nachkomme von Corvid könnte dann eines Tages ganz von selbst darauf kommen, sich aus Rohmaterial einfache Hilfsmittel zu formen. Erschafft damit ein Werkzeug die Urform seiner selbst? Spätestens dann ist es Zeit, dass die Biologen und Informatiker ihre Forschungsteams durch Philosophen und Theologen verstärken.
Quelle : www.heise.de
Titel: Das Jahrzehnt der Humanoiden
Beitrag von: SiLæncer am 31 Juli, 2010, 11:07
In diesem Jahrzehnt werden Ober- und Unterkörper menschenähnlicher Roboter zusammenwachsen
Wenn klobige Metallarme unermüdlich Autokarosserien verschweißen oder etwas filigranere Greifer in Sekundenschnelle Pralinenschachteln füllen, lässt das die Herzen von Geschäftsführern höher schlagen. Denn in der Regel arbeiten diese Automaten nicht nur schneller und präziser als Menschen, sondern vor allem auf Dauer auch billiger. Dagegen ist im Prinzip nichts einzuwenden. Aber dass sich für diese Maschinen mittlerweile die Bezeichnung "Roboter" durchgesetzt hat, das ist schon ärgerlich. Schließlich ging es bei der jahrhundertelangen Beschäftigung mit den Kunstwesen in erster Linie nicht darum, den Menschen zu ersetzen, sondern ihn besser zu verstehen - indem man ihn nachbaut.
Ein Rumpf, zwei Beine, zwei Arme und ein Kopf - so hat ein ordentlicher Roboter auszusehen. Antike Mythen wie die vom göttlichen Schmied Hephaistos oder dem aus Lehm gefertigten Golem bestätigen es ebenso wie zahllose Science-Fiction-Erzählungen. Bei der Entwicklung von Robotern war das Ziel letztlich immer, ein Ebenbild des Menschen zu schaffen. Eine Maschine, die so aussieht wie wir, sich so bewegt, spricht, denkt, vielleicht auch fühlt wie wir. Aber ist das überhaupt möglich? Stoßen wir beim Versuch, uns selbst nachzubauen, irgendwann auf fundamentale, nicht zu überwindende Barrieren? Erfahren wir vielleicht Dinge über uns, die wir lieber nicht gewusst hätten? Erschaffen wir den Übermenschen?
In Fabrikhallen mit ihren knapp bemessenen Taktzeiten mögen solche Fragen eher stören. Sie haben aber nie aufgehört, Künstler, Schriftsteller und Wissenschaftler zu inspirieren. Selbst Politiker schätzen die Aura des Visionären und lassen sich bei Technologiemessen und ähnlichen Anlässen lieber zusammen mit humanoiden Robotern als vor der neuen Vier-Achs-Verpackungsanlage für Bioriegel fotografieren.
Dabei können die Dinger noch gar nichts. Schön, sie gehen auf zwei Beinen, das aber auch nur auf glattem Untergrund. Sand, Steine oder Rasen sind unüberwindliche Hindernisse. Von Laufen und Rennen kann noch keine Rede sein. Und ihre Arme setzen die Zweibeiner ein, um das Gleichgewicht zu halten oder sich beim Aufstehen nach einem Sturz abzustützen. Gezielte Griffe sind dagegen noch nicht drin.
Wenn der Einsatz der Arme im Mittelpunkt steht, müssen humanoide Roboter immer noch auf Beine verzichten und sich auf Rädern bewegen. Auch dann ist es immer noch schwer genug, etwa eine Tür zu öffnen. Denn der Roboter muss damit umgehen können, dass er die Bahn seines Greifarms nun nicht mehr vollständig kontrolliert, sondern von der Tür auf eine Kreisbahn gezwungen wird. Bevor es überhaupt zum Griff nach der Türklinke kommt, muss er zudem eine geeignete Position finden, von der aus das Öffnen der Tür möglich ist. Das alles ist auf Rädern schon kompliziert genug, wie dieses Video des Teams NimbRo von der letzten RoboCup-Weltmeisterschaft zeigt. Auf zwei Beinen ist so eine Aktion derzeit noch unmöglich.
An der Carnegie Mellon University gelang das Öffnen eines Kühlschranks mit dem Roboter HRP-2 immerhin schon mal in der Simulation. Einen realen HRP-2 filmten die Forscher beim Stapeln von unterschiedlich großen Kartons. Allerdings sieht das auch bei dreifachem Zeitraffer noch recht behäbig aus und lässt den damit verbundenen Rechenaufwand erahnen. Ohnehin ist bei solchen Videos nie klar, wie viele Versuche schiefgegangen sind, bevor dieser eine gelang. Die Art, wie der am rechten Bildrand stehende Mensch den Roboter an der kurzen Leine hält, deutet auf massive Gleichgewichtsprobleme hin.
Zugleich zeigt das Video aber auch: Komplexe Bewegungen des gesamten Körpers sind auch bei humanoiden Robotern in Reichweite. Im Lauf der kommenden zehn Jahre dürften Ober- und Unterkörper der Kunstmenschen so weit zusammenwachsen, dass sich ihnen ganz neue Handlungsmöglichkeiten erschließen und sie ihre Rolle als Spiegelbild des Menschen endlich überzeugender ausfüllen können.
Wenn sie dabei gelegentlich ins Stolpern kommen, muss das kein Drama sein. Immerhin können sich beim Roboterfußball mittlerweile schon die bis zu 120 Zentimeter großen Torhüter der Teen Size gezielt fallen lassen, ohne Schaden zu nehmen. Und im Wettbewerb für Haushaltsroboter, bei dem die humanoiden Oberkörper ihr Können zeigen, entschuldigte sich NimbRos Roboterdame Dynamaid, als sie ein Kommando mehrfach falsch verstand, und bat höflich um eine weitere Wiederholung.
Da sollte es doch bis zum Jahr 2020 möglich sein, dass ein Roboter nach einem Sturz wie diesem nicht mehr schamhaft versteckt werden muss, sondern kurz seine Gelenke prüft, die Situation mit einem Scherz auffängt und seinen Auftritt fortsetzt. Wenn er richtig gut ist, lässt er die Zuschauer vielleicht sogar im Unklaren darüber, ob das vermeintliche Missgeschick nicht vielleicht doch Bestandteil einer ausgefeilten Choreographie war. Spätestens dann sollten wir uns für die Schweißautomaten und Wurstsortierer endlich neue Bezeichnungen ausdenken.
Quelle : http://www.heise.de/tp/
Titel: Roboter - Nao wird emotional
Beitrag von: SiLæncer am 09 August, 2010, 19:02
Damit ein Roboter sich in den Alltag des Menschen integrieren kann, muss er dort hineinwachsen wie ein Kind. So lautet das Credo des europäischen Projektes Feelix. In dessen Rahmen haben Wissenschaftler einen Roboter dazu gebracht, wie ein Kind von einem Erwachsenen zu lernen und eine Bindung zu ihm aufzubauen.
Nao, der Roboter des französischen Unternehmens Aldebaran, ist vielseitig begabt. Er kann tanzen und Fußball spielen. Europäische Forscher haben ihm eine weitere Fähigkeit beigebracht - der Roboter kann eine emotionale Bindung zu einem Menschen eingehen.
Kinder als Vorbild
Das Verhalten der Roboter sei dem von Kleinkindern nachempfunden, erklärt Lola Cañamero von der Universität der Grafschaft Hertfordshire in Hatfield, nördlich von London. Ihre Art, mit einem Menschen zu interagieren und auf ihn zu reagieren, ähnele der, wie ein Kind mit einem Erwachsenen interagiere. Das bedeutet, dass die Roboter beispielsweise auf ähnliche Reize reagieren wie Kleinkinder. Dabei konzentrieren sich die Wissenschaftler "auf nonverbale Reize und Gefühle, die durch Körperhaltung, Gesten und Bewegungen gezeigt werden, nicht durch Mimik oder Worte", so Cañamero.
Der Roboter gewöhne sich mit der Zeit an die Handlungen und Stimmungen des Menschen und entwickle eine Bindung zu diesem. Die Bindung sei umso stärker, je mehr beide miteinander interagierten und je mehr der Mensch auf den Roboter eingehe. Der Zuspruch durch den Menschen führe auch dazu, dass der Roboter besser lerne, so die Forscher.
Gefühle zeigen
Gleichzeitig zeigt der Nao auch eigene Gefühle wie Trauer, Ärger, Angst oder Freude. Ist er beispielsweise traurig, lässt er Kopf und Schultern hängen. Hat er Angst, kauert er sich nieder und muss mit einem Kopfstreicheln beruhigt werden, Freut er sich, reckt er die Arme hoch und will den Menschen umarmen.
Vorbild für das Verhalten des Roboters war das Bindungsverhalten, das Kleinkinder und kleine Primaten wie Schimpansen aufweisen, sagt Cañamero. Es sei das erste Mal, dass das Verhalten von Robotern danach modelliert wurde.
Roboter soll sich in Alltag einfügen
Die Arbeit ist Teil des 2007 gestarteten interdisziplinären europäischen Forschungsprojektes Feelix Growing, das Cañamero leitet. Dessen Ziel ist es, Roboter zu entwickeln, die sich in den Alltag des Menschen nahtlos einfügen. Dazu reiche es nicht aus, dass ein Roboter aus dem Regal genommen und in ein menschliches Umfeld gesetzt werde, sagte Cañamero zum Projektstart vor drei Jahren. Damit er sich in das tägliche Leben einfüge, müsse er sich an dieses anpassen. An Feelix sind neben der Universität von Hertfordshire und Aldebaran weitere Forschungseinrichtungen und Unternehmen aus der Dänemark, Frankreich, Griechenland, Großbritannien und der Schweiz beteiligt.
Feelix ist nicht das einzige europäische Projekt, das Roboter haus- und hoffähig machen möchte. Im Rahmen des Projekt Humavips etwa sollen Roboter selektive Wahrnehmung lernen, damit sie auch in lauten Umgebungen mit Menschen kommunizieren können. Auch dieses Projekt nutzt als Plattform den Nao. Im Rahmen des Projektes Lirec untersuchen Forscher, wie Roboter beschaffen sein müssen, damit Menschen sie als Hilfe im Haushalt akzeptieren. Ziel ist es, den künstlichen Wesen Emotionen und Persönlichkeit verleihen.
Quelle : www.golem.de
Titel: Eine Laufmaschine lernt gehen
Beitrag von: SiLæncer am 20 August, 2010, 15:38
Wer rennen will, muss erst mal richtig gehen können. Selbst die schnellsten Sprinter sind zuerst auf allen Vieren über den Boden gekrochen, bevor sie sich auf zwei Beine erhoben und aus ersten, tapsigen Schritten Rekordläufe wurden. Doch was auf Menschen zutrifft, muss für Maschinen noch lange nicht gelten. Ein Forschungsprojekt des Lauflabors Jena und der Technischen Universität Darmstadt will jetzt den umgekehrten Weg einschlagen. BioBiPed heißt der von ihnen gemeinsam entwickelte zweibeinige Roboter, der zuerst rennen und dann erst gehen lernen soll.
"Die Forschungen zum zweibeinigen Laufen scheinen gerade etwas zu stagnieren", sagte Katayon Radkhah, die im Rahmen ihrer Dissertation an der TU Darmstadt mit dem BioBiPed arbeitet. Tatsächlich beschäftigte sich bei der vorigen Humanoids, der wichtigsten Konferenz zu humanoiden Robotern, nur ein auffallend kleiner Teil der Vorträge mit Fragen der Fortbewegung. Bislang kontrollieren Zweibeiner ihren Gang zumeist mit Hilfe des Zero Moment Point (ZMP). Dabei wird der Punkt ermittelt, in dem sich alle im Roboter wirkenden Beschleunigungkräfte gegenseitig aufheben. Solange sich die Projektion des Punktes am Boden innerhalb der von den Rändern der Füße markierten Unterstützungsfläche befindet, ist der Roboter stabil. Ansonsten muss gegengesteuert werden. Die dafür erforderlichen Daten liefern Drucksensoren in den Fußsohlen.
Mit ZMP lässt sich mittlerweile sehr stabiles, auch schnelles Gehen realisieren. Dabei können sogar kurze Flugphasen vorkommen, in denen kein Fuß den Boden berührt. Doch damit hat das Verfahren seine Grenzen erreicht. Weil diese Lageregelung auf die Sensordaten angewiesen ist, kann der Roboter nicht schneller gehen, als die Sensoren zulassen. Zudem erfordert ZMP die genaue Kenntnis der Massenverteilung im Roboter und aller Gelenkstellungen. Es ist eine extrem kontrollierte Art der Fortbewegung.
Neben einem anderen Kontrollverfahren erfordert geschmeidiges, energieeffizientes Laufen und Rennen auch einen dafür geeigneten Körperbau. Bislang fehlt es humanoiden Robotern mit ihren starren, über Servomotoren in den Gelenken angetriebenen Gliedmaßen an der nötigen Elastizität. Bei BioBiPed dagegen sind die Motoren über Seilzüge mit den Gelenken verbunden, die dadurch nachgiebiger auf äußere Kräfte reagieren können. Daneben soll ein System aus passiven und aktiv steuerbaren Federn für das richtige Zusammenspiel der Glieder sorgen. Daran arbeiten die Forscher.
"Wir haben uns bei der Gestaltung der Hardware auf biomechanische Studien und die Erfahrungen mit der Laufmaschine Jena Walker gestützt", sagte Dorian Scholz, ebenfalls Doktorand an der TU Darmstadt. Das Ergebnis ist ein Roboter mit vielen Stellschrauben, die er und Radkhah in die richtigen Positionen bringen wollen, um BioBiPed sicher und stabil rennen zu lassen.
Bei der Kontrolle des Roboters knüpfen die Wissenschaftler an das von Marc Raibert entwickelte Modell des gefederten umgekehrten Pendels an. Mit diesem Verfahren lassen sich einbeinige, hüpfende Roboter steuern, aber auch Mehrbeiner. Die drei wichtigen Parameter sind dabei die Sprungkraft, die Kontrolle der Bewegungsrichtung und die Stabilisierung des Oberkörpers.
Mit einem rennenden Roboter allein ist das BioBiPed-Team aber noch nicht zufrieden. Spannend wird es, wenn der Roboter sein Tempo verlangsamt und ins Gehen wechselt. Fraglich ist, ob er dann auf ein anderes Kontrollverfahren umschalten muss oder ob es mit der Veränderung einiger Parameter getan wäre. Vom ZMP-geregelten Gehen führt kein Weg zum Laufen und Rennen. In umgekehrter Richtung dagegen mag sich ein einheitliches Kontrollverfahren für alle Gangarten finden lassen.
Die Erforschung der zweibeinigen Fortbewegung vom Laufen statt vom Gehen her vorzunehmen, wirkt vor diesem Hintergrund gar nicht mehr so ungewöhnlich. Die Vorgehensweise wird auch gestützt durch evolutionsbiologische Studien, die die Fähigkeiten des Menschen als Ausdauerläufer hervorheben. Denn während die meisten Tiere uns auf kurzen Distanzen locker abhängen, sind wir auf Langstrecken nahezu ohne Konkurrenz. Es könnte daher sein, dass weniger der aufrechte Gang die Gattung Homo vorangebracht hat, sondern das aufrechte, ausdauernde Laufen.
Menschen können heute mehr als zwei Monate laufen und dabei täglich eineinhalb Marathondistanzen zurücklegen. Für Laufroboter liegt die Messlatte etwas niedriger: Mit nicht mehr als 10 Kilojoule Energie pro Kilogramm Masse muss eine Maschine 10 Kilometer in weniger als 10.000 Sekunden bewältigen, um den W Prize in Höhe von 200.000 US-Dollar zu gewinnen. Bisher ist das noch niemandem gelungen. Auch BioBiPed wird noch eine Weile trainieren müssen. Aber den Wettbewerb haben die Forscher schon im Blick.
Quelle : www.heise.de
Titel: Künstliche Nase - Roboter riecht mit Froschzellen
Beitrag von: SiLæncer am 24 August, 2010, 17:40
Die Fähigkeit zu riechen könnte die Beziehung zwischen Menschen und Robotern vertiefen, glauben Wissenschaftler aus Japan. Sie haben einen Sensor entwickelt, der einem Roboter einen sehr feinen Geruchssinn verleiht.
Japanische Forscher haben aus den Zellen eines Froscheis eine künstliche Nase entwickelt. Sie kann nach Angaben der Forscher besser als existierende Systeme Geruchsstoffe wahrnehmen. Vorbild für den Biosensor ist die Art und Weise, wie Insekten riechen.
Froscheier und Insektenerbgut
Ausgangsmaterial für die Wissenschaftler um Shoji Takeuchi von der Universität der japanischen Hauptstadt Tokio waren Eizellen eines Krallenfroschs. In diese Zellen setzten sie Erbgut eines Seidenspinners, einer Kohlschabe und einer Fruchtfliege ein, genauer mit dem Teil der DNA, die für den Geruchssinn der Insekten zuständig ist. So brachten Forscher die Eizellen dazu, die Rezeptoren auszubilden, mit denen die Insekten Geruchsstoffe wahrnehmen.
Die so veränderten lebenden Eizellen kommen in Kapseln, die mit Flüssigkeit gefüllt sind. Diese Kapseln wiederum werden an Elektroden angeschlossen. Treffen Moleküle auf die Rezeptoren, reagieren diese mit einem elektrischen Impuls, den die Elektroden erfassen.
Schadstoffe in der Luft
Die Wissenschaftler um Takeuchi schreiben in einem Aufsatz in der US-Fachzeitschrift Proceedings of the National Academy of Sciences, der von ihnen entwickelte Sensor könne sogar sehr ähnliche biochemischen Moleküle auseinander halten. Damit sei er empfindlicher als Systeme, die mit Nanosaiten arbeiten. Der Sensor könne in mobile Messgeräte eingebaut werden, um beispielsweise Schadstoffe in der Luft zu messen.
Takeuchi und seine Kollegen haben die Funktionsfähigkeit ihres Sensors anhand eines Roboters nachgeprüft, den sie mit Hilfe des Sensors steuern: Nimmt dieser Botenstoffe einer Motte wahr, schüttelt er den Kopf. Er glaube, sagte Takeuchi dem britische Wissenschaftsmagazin New Scientist, dass "die gemeinsame Fähigkeit zu riechen eine neue Art der Beziehung zwischen Mensch und Roboter eröffnen kann."
Quelle : www.golem.de
Titel: ICRAC: Rüstungskontrolle für Kampfroboter
Beitrag von: SiLæncer am 23 September, 2010, 20:57
Einige hassen ihn, andere bewundern ihn, an ihm vorbei kommt aber keiner: Der Terminator war stets präsent, als sich 40 Wissenschaftler für drei Tage in einem Seminarraum der Berliner Humboldt-Universität versammelten, um über Militärroboter zu diskutieren. Eingeladen hatte das International Committee for Robot Arms Control (ICRAC). Es war der erste Workshop des vor einem Jahr von vier Wissenschaftlern aus Großbritannien, Australien, Deutschland und den USA gegründeten Komitees, das eine breite internationale Diskussion über Militärroboter und Vereinbarungen zu ihrer Kontrolle einfordert. Gekommen waren Politikwissenschaftler, Informatiker, Friedensforscher und Philosophen – und das Verhältnis zu der von Arnold Schwarzenegger verkörperten Filmfigur eines Kampfroboters war nicht die einzige Frage, bei der ihre Positionen auseinander lagen.
Sie stand allerdings nicht im Mittelpunkt der Diskussionen. Denn motiviert ist das Anliegen des ICRAC nicht durch fiktive Hollywoodszenarien, sondern durch die nackte Realität. Auf 1114 bis 1712 werde die Zahl der Opfer geschätzt, die zwischen 2004 und dem 15. September 2010 durch Drohnen getötet wurden, sagte Noel Sharkey, einer der Gründer des Komitees, in seinem Einführungsvortrag. Diese fliegenden Roboter werden von Menschen ferngesteuert. Der Professor für künstliche Intelligenz und Robotik von der University of Sheffield betonte aber, dass es allein schon wegen der Verletzlichkeit der Funkverbindung über Satelliten einen Entwicklungsdruck hin zu mehr Autonomie gebe.
Sharkey steht mit dieser Einschätzung nicht allein. So rechnen Planer des US-Verteidigungsministeriums für die Dekade zwischen 2030 und 2040 mit unbemannten Flugzeugen, die in der Lage sind, andere Flugzeuge zu bekämpfen. Weil sie keine Rücksicht auf den menschlichen Körper nehmen müssen, sind sie zu Flugmanövern in der Lage, bei denen Kräfte bis zum 40 G auftreten. Allein das macht sie jedem bemannten Gegner überlegen. Der Luftkampf bringt jedoch auch die Fernsteuerung an ihre Grenzen. "Wegen der großen Zahl von Entscheidungen in kurzer Zeit" hingen Fortschritte beim Waffeneinsatz "von der Entwicklung immer größerer Autonomie" ab, heißt es in der "Unmanned Aircraft Systems Roadmap 2005-2030" nüchtern.
Noch gibt es die autonom feuernden Militärroboter nicht. Aber die Vision hat die Science-Fiction-Romane und Drehbücher verlassen und Eingang in militärische Konzepte gefunden. Ob die Entwicklung am Ende langsamer oder schneller verläuft als erwartet – der Weg hin zu bewaffneten autonomen Robotern ist beschritten. Für die Teilnehmer des Berliner Workshops war das Grund genug, aktiv zu werden.
Allerdings: Was genau bedeutet Autonomie? Diese Frage stand noch häufiger im Raum als der Terminator. Beim Einschalten ihres Computers würden Prozesse in Gang gesetzt, die sie nicht bemerke und auf die sie keinen Einfluss habe, bemerkte eine Teilnehmerin. Aber handelt der Rechner deswegen autonom? Führt er nicht eher vom Menschen vorgeschriebene Programme aus? Auch ein autonomer Roboter folgt letztlich seiner vom Menschen entwickelten Programmierung, führt dessen Befehle aus. Das gilt jedoch auch für menschliche Soldaten, die in eine militärische Kommandostruktur eingebunden sind – sie sind einem Computerprogramm dann gar nicht so unähnlich.
Menschen können sich im Unterschied zu Robotern bei ihrem Handeln an ethischen Kriterien orientieren, stoßen damit unter Gefechtsbedingungen jedoch oft an Grenzen. Einige Wissenschaftler beschäftigen sich daher mit der Frage, ob Roboter zukünftig auch mit Ethik ausgestattet werden könnten, der sie dann womöglich konsequenter folgten als Menschen. Ron Arkin erforscht diesen Aspekt der Militärrobotik am Georgia Institute of Technology. Selbst wenn es gelingen sollte, eine solche maschinelle Ethik zu implementieren, erwartet aber auch Arkin nicht, das menschliche Soldaten komplett durch Roboter ersetzt werden könnten, sondern sieht deren Einsatz eher in speziellen Situationen, etwa im Kampf gegen Scharfschützen oder bei der Durchsuchung von Räumen.
Wendell Wallach von der Yale University, der gemeinsam mit Colin Allen (Indiana University, Bloomington) ein Buch zum Thema verfasst hat, gab zu bedenken, dass eine Zunahme der Autonomie auf Seiten des Roboters oft auch eine höhere Verantwortung des Operators mit sich bringe. Er bezog sich auf die Forderung, dass immer ein Mensch in der Entscheidungsschleife sein solle, und nannte das Beispiel eines Roboters, der einen Scharfschützen identifiziert, woraufhin der Mensch den Feuerbefehl gibt. "Wer befindet sich hier in wessen Schleife?", fragte er provozierend.
Tatsächlich wird Autonomie bei Militärrobotern nicht plötzlich ein- oder ausgeschaltet, sondern dringt nach und nach in das gesamte militärische Netzwerk ein. Auch bei den Einsätzen der Predator- und Reaper-Drohnen verlassen sich die oft mehrere tausend Kilometer entfernten Bediener auf die von den Flugrobotern übermittelten Daten.
Götz Neuneck vom Institut für Friedensforschung und Sicherheitspolitik (IFSH) der Universität Hamburg befürchtet, dass durch die zunehmende Automatisierung und Netzwerkzentrierung moderner Kriegsführung die Schwelle zum Krieg gesenkt wird. Politische Lösungen könnten übersehen und vermehrt asymmetrische Reaktionen provoziert werden. Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK) sieht ebenfalls das Risiko einer Verschärfung asymmetrischer Konflikte durch den Einsatz von Roboterwaffen. Langfristig könne die Automatisierung zu einer Destabilisierung der Sicherheitslage führen. Er empfahl eine Demystifizierung dieser Waffensysteme und eine Verbesserung der öffentlichen Wahrnehmung.
Einen wichtigen Schritt in diese Richtung unternahm der Berliner Workshop mit der Verabschiedung einer Erklärung zu bewaffneten Robotersystemen, in der ein Verbot autonomer Kampfroboter und Beschränkungen bei ferngesteuerten gefordert werden. Welchen kurzfristigen Nutzen diese Waffensysteme auch immer haben mögen, er werde aufgewogen von den langfristigen Risiken, heißt es darin. Die Erklärung soll auf der ICRAC-Homepage veröffentlicht werden. Sie kann per Unterschrift unterstützt werden und soll eine Grundlage für die weitere Debatte bieten.
Quelle und Links : http://www.heise.de/newsticker/meldung/ICRAC-Ruestungskontrolle-fuer-Kampfroboter-1095585.html
Auch eine künstliche Persönlichkeit braucht ein Unbewusstes
Ein Roboter, der einen Verfolger auf eine falsche Fährte lockt, wirkt auf den ersten Blick wie das erste Aufblitzen eines Maschinenbewusstseins, jedenfalls ganz schön verschlagen. Bei dem Experiment am Georgia Institute of Technology war dem Roboter die Absicht der Täuschung allerdings schon einprogrammiert. Um selbst auf so eine Idee zu kommen, reicht ein Bewusstsein aber wohl ohnehin nicht aus. Für solche Kreativität braucht es komplexere kognitive Strukturen mit Unterbewusstsein und Unbewusstem. Auch daran wird bereits geforscht.
Alan Wagner und Ron Arkin berichten im International Journal of Social Robotics von einem Versteckspiel für zwei Rovio-Roboter. Es gab drei Orte, an denen sich der erste Roboter verstecken konnte. Auf den Wegen zu diesen Verstecken standen drei Buntstifte aufrecht auf ihren schmalen Enden. In einer Vorbereitungsphase lernten die Roboter, dass die Stifte umfielen, wenn ein Roboter dagegen fuhr.
Genau das nutzte der Rovio, der sich verstecken sollte aus: Er fuhr gezielt einen Stift um und machte sich dann auf den Weg zu einem anderen Versteck. Der Verfolger dagegen suchte genau dort, wo der Stift umgefallen war. Für die Forscher ist das ein Zeichen, dass der verfolgte Roboter sich in die Gedankenwelt des Verfolgers hineinversetzen konnte. In der Kognitionswissenschaft wird diese Fähigkeit auch auf deutsch als "Theory of Mind" bezeichnet. Menschen entwickeln sie gewöhnlich im Alter von vier bis fünf Jahren.
Ob die Roboter bei diesem Experiment tatsächlich auch eine Theory of Mind entwickelt haben, ist indessen umstritten. "Mir scheint, dass die Theory of Mind mehr im Experimentator angesiedelt ist als im Roboter", sagte Sara Mitri, Evolutionsbiologin und Robotikforscherin an der Harvard University, dem New Scientist. Ohne entsprechende Programmierung durch den Menschen wäre der Roboter wohl kaum auf das Täuschungsmanöver gekommen.
Kevin Gold (Rochester Institute of Technology) warnt ebenfalls davor, das Experiment zu hoch zu hängen. Gold, der vor drei Jahren zusammen mit Brian Scasselatti einem humanoiden Roboter beibrachte, sich selbst im Spiegel zu erkennen, sieht die Studie aber als einen Schritt in die richtige Richtung. Das meint auch Liane Young, Kognitionsforscherin am Massachusetts Institute of Technology, die der New Scientist mit den Worten zitiert: "Jeder Computercode, der die Verhaltensmerkmale von Theory of Mind und Täuschung hervorbringt, kann uns helfen zu verstehen, was im menschlichen Geist abläuft."
Den menschlichen Geist besser verstehen möchte auch Andrei Khrennikov, der sich an der schwedischen Linnaeus University mit mathematischer Modellierung in Physik und Kognitionswissenschaften beschäftigt. In einem Beitrag für die neue Zeitschrift Paladyn erläutert Khrennikov, wie er die Dynamik unbewusster Denkprozesse im Computer nachbilden will. Die Regeln der Vernunft spielten dabei keine Rolle, schreibt er: "Das Unbewusste ist eine Ansammlung dynamischer Systeme (Denkprozessoren), die praktisch automatisch neue geistige Zustände erzeugen. Das Bewusstsein arbeitet lediglich mit den Resultaten (Attraktoren im Raum der Ideen) dieser unbewussten Prozessoren."
Khrennikov stützt sich auf psychoanalytische Konzepte wie Lust- und Realitätsprinzip und lässt in seinem Modell Wünsche, Verbote und verbotene Wünsche miteinander wechselwirken. Die Einführung einer "Domäne der Zweifel" führt dabei zu psychischen Problemen und Geisteskrankheiten. Ideen werden unterdrückt, können aber je nach Höhe der blockierenden Schwellenwerte wieder wirksam werden.
Es gehe ihm nicht darum, freundliche Roboter zu schaffen, um deren Effizienz zu erhöhen, schreibt Khrennikov. Er möchte eine künstliche Intelligenz mit den wesentlichen Elementen der menschlichen Psyche ausstatten. Die dabei auftretenden Macken und Neurosen sind kein Fehler, sondern erwünscht, können sie doch das Verständnis psychischer Probleme vertiefen und Behandlungsmethoden verbessern.
Khrennikov erwartet zukünftig aber auch einen wachsenden Bedarf für Haushaltsroboter, die nicht nur simple Aufgaben erledigen können, sondern über eine sich mit der Zeit entwickelnde komplexe Persönlichkeit verfügen. Wahrscheinlich ist ein Roboter, der beim Putzen und Aufräumen zu gelegentlichen hysterischen Anfällen neigt, auf Dauer auch einfach interessanter und angenehmer im Umgang als ein leise summender Langweiler, der nur redet, wenn er gefragt wird.
Quelle : http://www.heise.de/tp/
Titel: Roboter - Volkszählung für Maschinen
Beitrag von: SiLæncer am 12 Oktober, 2010, 12:12
Eine US-Wissenschaftlerin hat ein ehrgeiziges Projekt begonnen: Sie will herausfinden, wie viele Roboter es auf der Welt gibt und was sie alles können. Dazu hat sie eine Website eingerichtet, über die Besitzer ihren Roboter registrieren können.
(http://www.golem.de/1004/74672-1725-aila_hp.jpg)
Roboter sind unter uns: Sie kehren den Fußboden, geleiten Bankkunden zu ihrem Termin oder fahren unerkannt durch Braunschweig. Aber wie viele sind es wirklich? Vor knapp zwei Jahren etwa schätzte der internationale Ingenieursverband Institute of Electrical and Electronics Engineers (IEEE) die Zahl der Industrieroboter auf eine Million. Heather Knight will es genau wissen: Sie hat die erste Roboterzählung der Welt initiiert.
Meldebogen für Roboter
Alle Roboterbesitzer sind aufgerufen, ihre Maschinenwesen zu registrieren. Dazu hat Knight die Website Robotcensus.org eingerichtet und dort ein Formular bereitgestellt, um einen Roboter zu melden. Gefragt wird nach dessen Einsatzzweck, also ob er in der Forschung eingesetzt wird, im Service oder als robotischer Freund, sowie nach seinem Einsatzort, also etwa Labor, Haushalt oder Fabrik. Außerdem soll der Besitzer technische Details angeben: Wie viele Freiheitsgrade hat der Roboter, welches Geschlecht, welche Sensoren? Und schließlich die wichtigste Frage: Wie viele Roboter gibt es? - wobei der Besitzer aufgefordert wird, für jeden Roboter den Meldebogen einzeln auszufüllen. Ein Glück, dass ein robotisches Fußballteam nur aus drei Spielern besteht.
Angefangen hat die Roboterzählung als Projekt an der Carnegie Mellon Universität (CMU) in Pittsburgh im US-Bundesstaat Pennsylvania. Knight wollte wissen, wie viele Roboter es im Robotics Institute der CMU gibt, an dem sie promoviert. Also entwarf sie einen Fragebogen, den sie per E-Mail an alle Institutsmitarbeiter verschickte.
Roboter - Mensch: fast 1:1
Die haben fleißig ausgefüllt. Das Ergebnis: Nach dem derzeitigen Stand gibt es an Knights Institut 547 Roboter. Damit kommt auf fast jeden der rund 600 Institutsangehörigen ein Roboter. Nicht berücksichtigt sind dabei ist das geheime Regierungslabor, das zu CMU gehört.
Bleibt die entscheidende Frage: Was ist eigentlich ein Roboter? Dabei beruft sich Knight auf die übliche Definition, nach der Roboter künstliche Systeme sind, die wahrnehmen, denken und handeln können.
Ziel der Aktion ist, mehr Verständnis für Roboter zu wecken. Wenn Nutzer Fotos von den unterschiedlichsten Robotern - von der attraktiven Roboterdame Aila über den vielseitig einsetzbaren Personal Robot 2 bis hin zum Automaten für Panoramafotos - sehen, dann legen sie ihre Vorurteile gegen Roboter ab, hofft Knight. Es sei "schwer, gegen die Terminator-Filme anzutreten", sagte sie dem US-Wissenschaftsmagazin Technology Review.
Quelle : www.golem.de
Titel: Roboter Asimo wird zehn
Beitrag von: SiLæncer am 29 Oktober, 2010, 19:19
Am 31. Oktober 2000 haben die Entwickler den humanoiden Roboter Asimo fertiggestellt, ein 1,3 Meter großer humanoider Roboter, der als Freund und Helfer des Menschen eingesetzt werden soll. Zu seinem runden Geburtstag hat Honda dem Roboter eine Torte gebacken.
Roboter Asimo feiert Geburtstag: Am 31. Oktober wird er zehn Jahre alt. Der japanische Mischkonzern Honda hatte den humanoiden Roboter 2000 nach 14 jähriger Entwicklungszeit fertiggestellt. Gedacht ist Asimo als freundlicher Roboter, der mit Menschen interagiert, etwa als Portier in einem Hotel, oder ihnen als Assistenzroboter hilft.
Gehen und laufen
Asimo - der Name ist eine Abkürzung für Advanced Step in Innovative Mobility - ist 1,3 m groß und 54 kg schwer. Er geht aufrecht auf zwei Beinen, die jeweils über sechs Freiheitsgrade verfügen. Er kann damit gerade Strecken und Kurven gehen oder Treppen steigen. Auch auf weichem Untergrund verliert er nicht das Gleichgewicht. Sein normales Gehtempo beträgt 2,7 km/h, was etwa der halben Gehgeschwindigkeit eines Menschen beträgt. Asimo schlägt aber auch mal eine schnellere Gangart an: Seit 2005 kann der Roboter auch rennen und erreicht dabei eine Geschwindigkeit von 6 km/h.
Seine zwei Arme haben, wie die eines Menschen, drei Gelenke - Schulter, Ellenbogen und Handgelenk. Das ergibt zusammen sieben Freiheitsgrade pro Arm. Die Arme enden in Händen, die je vier Finger und einen Daumen haben. Dabei ist er so geschickt, dass er auch zerbrechliche Gegenstände fassen kann. Er nimmt sie mit einer Kamera wahr, die sich in seinem Gesicht befindet. Darüber erkennt er Gegenstände, aber auch Bewegungen.
Gesichts- und Spracherkennung
Sieht er beispielsweise einen Menschen, kann er abschätzen, wie schnell und in welche Richtung dieser geht. Asimo kann ihm dann entgegengehen und ihn begrüßen. Hat er den Menschen schon einmal gesehen, ist das Gesicht in Asimos Datenbank gespeichert und er spricht ihn mit Namen an. Interagiert er mit mehreren Personen, erkennt er, welche gerade spricht und wendet sich ihr zu. Dazu verfügt er über ein Sprachsynthesesystem.
Asimo kommuniziert aber nicht nur mit Menschen - er kann ihnen auch zur Hand gehen, etwa indem er einen Servierwagen schiebt oder ein Tablett trägt. Dabei bewegt er sich allerdings langsamer als normal. Dafür schafft er es, das Tablett zu tragen, ohne dass die darauf befindlichen Gefäße überschwappen. Sollten die Gefäße ins Rutschen kommen, registrieren das die Sensoren in seinen Handgelenken. Asimo stoppt dann und versucht, das Tablett auszubalancieren.
Die Größe hat Honda so gewählt, dass Menschen halbwegs bequem mit dem Roboter interagieren können. Steht er einem sitzenden Menschen gegenüber, sind beide auf Augenhöhe. Außerdem erreicht er so die meisten Gegenstände aus der Welt der Menschen: So kann er etwa Bürogeräte wie Kopierer oder Computer bedienen, er kann Schubladen öffnen, Türgriffe oder Schalter betätigen.
Plumpe Ahnen
1986 hatte Honda begonnen, humanoide Roboter zu entwickeln. Nicht alle Vorgänger sind so elegant geraten wie Asimo. Die Technik, die die Robotiker im Laufe der Jahre entwickelt haben, fand jedoch nicht nur Eingang in Asimo. Unter anderem profitierte auch Hondas Autosparte, etwa im Bereich der Sicherheitssysteme davon.
Erstmals der Öffentlichkeit wurde er drei Wochen später präsentiert. Seither war er der Star auf vielen Veranstaltungen. Seinen ersten Auftritt in Europa hatte er 2003 in der Technischen Universität in Darmstadt.
Kuchen zum Geburtstag
Zum Geburtstag des Roboters veröffentlicht Honda eine Smartphone-Applikation, die Asimo und andere Roboter des Unternehmens vorstellt. "Run with Asimo" soll in zwei Versionen bereitstehen, eine für Android-Geräte und eine für das iPhone. Asimo selbst spendiert Honda zu seinem Ehrentag stilecht eine Torte.
Dass Intelligenz einen Körper braucht, beherzigen Forschungen zur künstlichen Intelligenz seit gut 20 Jahren: Roboter sollen intelligentes Verhalten entwickeln, indem sie sich mit Hilfe ihrer Sensoren in einer realen Umgebung zurechtfinden. Bislang blieb ihr Körper dabei aber stets der gleiche, während er sich bei Lebewesen ständig verändert. Welchen Einfluss solche Körperveränderungen auf Lernprozesse haben, hat Josh Bongard an der University of Vermont jetzt untersucht.
In der Zeitschrift PNAS berichtet Bongard von Simulationen mit vierbeinigen und sechsbeinigen Robotern. Über ein neuronales Netz lernten sie, sich in Richtung einer Lichtquelle zu bewegen, während ihnen nach und nach Beine wuchsen. Das heißt, sie bewegten sich zunächst, indem sie schlangenartig die Winkel ihrer zwei (bei den Vierbeinern) beziehungsweise drei (bei den Sechsbeinern) Körpersegmente zueinander veränderten. In weiteren Entwicklungsstufen konnten sie Beine einsetzen, die in Winkeln von 30, 60 und schließlich 90 Grad auf den Boden aufsetzten. Das Körperwachstum konnte während einer Evaluationsperiode mit unterschiedlicher Geschwindigkeit erfolgen oder auf verschiedene Robotergenerationen verteilt werden. Außerdem variierte Bongard den Schwierigkeitsgrad der Testumgebung, indem er die Lichtquelle immer weiter von der ursprünglichen Bewegungsrichtung des Roboters weg bewegte. Mit jeder Variante führte er 100 Versuche durch, die entweder mit der Entwicklung eines erfolgreichen Verhaltens endeten oder nach 30 Stunden Rechenzeit abgebrochen wurden.
Es zeigte sich, dass das Verhalten deutlich schneller gelernt wurde, wenn der Lernprozess von Veränderungen des Körperbaus begleitet war. Zudem erwies sich das so gelernte Verhalten auch als robuster gegenüber zufälligen Störungen. Das neuronale Netz, das schon während seiner Entwicklung auf sich verändernde Sensor-Motor-Verhältnisse hatte reagieren müssen, konnte offenbar auch besser mit verrauschten Sensordaten umgehen.
Bongard beobachtete auch die Entwicklung einer Art funktioneller Modularität: Bei den Robotern, deren Körperbau sich parallel zum neuronalen Netz entwickelte, blieb die wellenförmige Bewegung der Körpersegmente stärker erhalten. Im Unterschied zu den Robotern, die von vornherein Beine hatten, scheint hier das "Rückgrat" vornehmlich für den Antrieb verantwortlich zu sein, während die Beine vor allem die Balance halten. Das müsse noch genauer untersucht werden, so Bongard. Aber auch die bisherigen Ergebnisse seiner Studie unterstrichen den Vorteil stark modular aufgebauter Roboter, die sich nicht nur auf der Programmebene, sondern mit der Hardware an ihre Aufgaben und Umgebungen anpassen könnten.
Quelle : www.heise.de
Titel: Innorobo: Großes Robotertreffen in Lyon
Beitrag von: SiLæncer am 23 März, 2011, 19:47
Im Kongresszentrum von Lyon wurde am Mittwoch die Innorobo eröffnet. Organisiert wird die Kombination aus Messe und Konferenzen von Syrobo, dem französischen Interessenverband für Servicerobotik. Den Veranstaltern zufolge soll die Innorobo die internationalen Schlüsselfiguren aus diesem Bereich zusammenführen und einen einzigartigen Einblick in den Stand der technologischen Entwicklung ermöglichen.
Der Auftakt war durchaus vielversprechend. Etwa 80 Aussteller zeigen so ziemlich alle Aspekte mobiler Roboter, seien es komplette Humanoide wie den Nao von Aldebaran Robotics, Roboter für die Ausbildung, etwa von Lego Education, oder der künstliche Fisch Jessiko des jungen Unternehmens Robotswim. Der Roboterstaubsauger Roomba von iRobot fehlt ebenso wenig wie die übers iPhone gesteuerte Minidrohne der Firma Parrot. Wer an den Messeständen vorbeiläuft, kann leicht den Eindruck gewinnen, dass der kommerzielle Durchbruch der Roboter unmittelbar bevorsteht. Die Stimmung ist gut.
Dabei gibt es noch so viele offene Fragen – auch denen stellt sich die Innorobo. Das Vortragsprogramm präsentierte Referenten, die nicht um den heißen Brei herum redeten. Noel Sharkey (University of Sheffield) sprach über den Einsatz von Robotern im Krieg, der derzeit insbesondere vom US-Geheimdienst CIA in Pakistan vorangetrieben wird. Derzeit erfolgen die Drohnenangriffe noch ferngesteuert, doch der Trend zu immer größerer Autonomie, auch des Waffeneinsatzes, ist ungebrochen, wie Sharkey mit mehreren Videoaufnahmen belegen konnte. Die Entwicklung gehe vom "man in the loop" zum "man on the loop". Der Mensch soll nicht mehr jede einzelne Aktion steuern, sondern mehr und mehr ganze Schwärme von Flugrobotern überwachen. Sharkeys Fazit ist klar: Die Automatisierung des Krieges bringt mehr Krieg, tötet mehr Zivilisten und führt zu mehr Terror. Auch die Praxis der gezielten Tötungen, bei denen die Opfer keine Chance zur juristischen Verteidigung haben, werde zunehmen, meint Sharkey.
Aber auch im Zivilleben wirbeln die Roboter einiges durcheinander. "Das Internet wird einen Körper bekommen", sagte Cynthia Breazeal, Leiterin der Personal Robots Group am Massachusetts Institute of Technology (MIT). Sie betrachtet die Robotik als eine soziale Technologie, die gewissermaßen die Schnittmenge von Technik, Menschen und Haustieren bildet und die zwischenmenschliche Interaktion in vielfältiger Weise beeinflusst. Mit Haustieren verglich auch der britische Designer James Auger die Roboter. Auf dem Weg vom technologischen Traum zum Produkt müssten sie – ähnlich wie Hunde – einen Prozess der Domestizierung durchlaufen. Sinnigerweise beendete er seinen Vortrag mit Videoaufnahmen eines Ballwurfautomaten, der von einem Hund selbstständig bedient wurde. Das sei keine Entfremdung des Hundes, betonte Auger, sondern eine Erweiterung seiner Möglichkeiten.
Ebenfalls vom Standpunkt eines Designers betrachtete Dominique Sciamma die Robotik. Er sieht hier eine grundlegend neue soziale Situation entstehen. Die Form folge nicht mehr der Funktion, vielmehr stehe das Verhalten im Fokus. Ob der Mensch den Roboter forme oder umgekehrt, sei nicht immer klar auszumachen. Angesichts von Alltagsgegenständen, die mehr und mehr lebendig würden, forderte Sciamma: Zurück zur Magie! Ohne Scheu formulierte er auch transhumanistische Gedanken etwa über die Möglichkeiten, die Identität eines Menschen nach dessen Tod in seiner Armprothese zu bewahren.
Ganz so weit wollte Patrizia Marti (Universität Siena) nicht gehen. Doch auch ihre Beispiele von Roboterexperimenten mit Demenzpatienten sowie geistig und körperlich behinderten Kindern machten deutlich, dass die Roboter das Potenzial haben, das soziale und kulturelle Gefüge nachhaltig zu erschüttern. "Möglicherweise entsteht hier etwas Neues", fasste Marti ihren Vortrag zusammen, "jenseits unserer Vorstellungen von lebendig oder nicht lebendig."
Quelle : www.heise.de
Titel: Semantische Suche: PR2 kann Schlüsse ziehen
Beitrag von: SiLæncer am 06 Oktober, 2011, 19:00
PR2 ist wieder etwas alltagstauglicher geworden: Deutsche und japanische Wissenschaftler haben eine semantische Suche für den Roboter des US-Unternehmens Willow Garage entwickelt. Diese ermöglicht es dem Roboter, Aufgaben auch ohne ein streng vorgegebenes Programm zu erledigen.
Wissenschaftler aus Deutschland und Japan haben eine semantische Suche für den Personal Robot 2 (PR2) des US-Herstellers Willow Garage entwickelt. Mit deren Hilfe soll der Roboter auch ohne genaue Vorgaben Aufgaben erledigen können, berichtet das US-Wissenschaftsmagazin IEEE Spectrum (http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/pr2-can-now-fetch-you-a-sandwich-from-subway).
Der PR2 kann allerlei Praktisches im Haushalt anstellen - Bier holen etwa, Schokokekse backen oder Socken falten. Wenn er eine solche Aufgabe erfüllt, führt der Roboter die Angaben aus, die ein Programm ihm vorgibt. Die semantische Suche soll ihm noch mehr Selbstständigkeit verleihen.
Schlüsse ziehen
Die Wissenschaftler von der Technischen Universität in München und der Universität in Tokio haben dem PR2 jetzt beigebracht, Schlüsse zu ziehen und so über reine Anweisungen hinausgehen zu können. Semantische Suche bedeutet, dass auf der Basis von vorhandenen Kenntnissen und Informationen aus der Umwelt auf ein unbekanntes Objekt geschlossen wird.
Konkret lautete der Auftrag an den Roboter, dem Auftraggeber ein Sandwich zu bringen. Der PR2 weiß, dass ein Sandwich etwas zu essen ist. Folgerichtig sucht er zunächst dort, wo Lebensmittel normalerweise aufbewahrt werden: im Kühlschrank. Dort gibt es aber kein Sandwich. Also muss er zu einem anderen Ort fahren, an dem er ein Sandwich finden kann.
Auf zum Imbiss
Die Entwickler haben den Roboter mit einer Karte der Umgebung ausgestattet. Auf der sind auch Lebensmittelgeschäfte verzeichnet. Dort, so schließt der Roboter, wird er möglicherweise das Gesuchte finden. Also fährt er zum Fahrstuhl und dann auf die Straße zum gegenüberliegenden Imbiss. Dort erhält er das gesuchte Sandwich, welches er schließlich beim Auftraggeber abliefert. Aufgrund der in der Datenbank abgelegten Informationen und der Fähigkeiten, Beziehungen zwischen Daten herzustellen und Schlüsse zu ziehen, konnte der Roboter die Aufgabe erledigen, ohne einem vorbestimmten Ablauf zu folgen.
Die beiden Universitäten gehören zu denen, die im vergangenen Jahr im Rahmen des PR2-Beta-Projekts von Willow Garage einen PR2 zur Verfügung gestellt bekommen haben. Ziel ist es, Roboter alltagstauglich zu machen.
Quelle : www.golem.de
Titel: Menschenähnliches Gesicht für Roboter
Beitrag von: SiLæncer am 08 November, 2011, 17:20
Wissenschaftler der TU München haben eine neue Technik entwickelt, um Robotern individuelle Gesichter mit einem realistischen Minenspiel geben zu können
Um Roboter für Menschen umgänglicher zu machen, entwickeln vor allem japanische Techniker Humanoide, die möglich dem Menschen ähneln sollen, zumindest dem Aussehen nach. Die Humanoiden, gerne mit einem Kindchengesicht und auch sehr gerne mit weiblichem Aussehen, sollen für die alternde japanische Gesellschaft als Pfleger oder für Dienstleistungen eingesetzt werden, sie könnten auch Lehrer oder auch Freunde ersetzen. Wahrscheinlich steckt hinter den Interessen der auch in der Literatur schon lange bearbeitete Traum, einen Roboter so lebensecht schaffen zu können, dass er zumindest für kurze Zeit mit einem Menschen verwechselt werden könnte.
Bei einem Humanoiden müssen Gesten, Bewegungen, Mimik, Aussehen von Körper und Gesicht, aber auch Stimme, Augen und nicht zuletzt die "Haut" stimmen, auf der anderen Seite müssen auch kleine Unterschiede gewahrt werden, damit die Roboter nicht wegen allzu großer Ähnlichkeit unheimlich werden. Jetzt haben Wissenschaftler am Institut für Kognitive Systeme der TU München mit japanischen Wissenschaftler eine neue Möglichkeit entwickelt, wie Roboter ein menschenähnliches Gesicht erhalten können.
Normalerweise wird versucht, die komplizierte Gesichtsmimik mit zahlreichen Minimotoren mechanisch zu reproduzieren. Das ist allerdings sehr aufwendig und störanfällig. Die Wissenschaftler verzichten ganz auf die Mechanik und verwenden für ihren Mask-Bot nur eine durchsichtige, innen mit einer Leuchtschicht-Imprägnierung ausgestattete Kunststoffmaske, in die von hinten mit einem Beamer und durch eine Fischaugenlinse das 3D-Bild eines Gesichts projiziert wird, das auch seitlich gesehen noch realistisch wirken soll.
Allerdings erzeugt die hell erleuchtete Maske zwar einen relativ realistischen Eindruck eines individuellen Gesichts, bei dem die Mimik ziemlich überzeugend ist, aber das Gesicht wirkt durch das durchscheinende Licht gespenstisch, bei hellem Sonnenschein dürfte die Kenntlichkeit des Gesichts schwinden, selbst wenn der kleine Beamer so stark sein soll, dass zumindest die Räume nicht verdunkelt werden müssen.
Eingesetzt werden soll die Technik für Videokonferenzen. Es reiche bereits ein zweidimensionales Foto als Grundlage für das 3D-Bild, dessen Mimik dann von einem Programm gesteuert wird. Dafür wurde das Minenspiel von Menschen aufgezeichnet und versucht, Gesichtsausdrücken Lauten zuzuordnen, um so das Gesicht beim Sprechen entsprechend zu bewegen. Ein weiteres Programm sorgt dafür, dass das Gesicht auch die richtigen Emotionen zeigt. Bislang kann Mask-Bot nur nachsprechen, was über eine Tastatur eingegeben wird. Die Stimme ist nicht individuell, man kann lediglich bestimmen, ob es sich um eine Männer- oder Frauenstimme handelt und wie laut sie spricht. Gesprochene Sprache verstehe das System allerdings kaum, ebenso wenig kann es frei sprechen und auf das Gegenüber reagieren.
Beim nächsten Prototypen soll der Talking Head Mask-Bot in einen mobilen Roboter integriert werden, der sich im Raum bewegt und damit auch das Gesicht aus allen Perspektiven, auch von unten und oben, zeigt, was schon schwieriger werden dürfte. Zumal auch die Kamera schrumpfen und im Kopf verschwinden mussUnd es verwundert auch nicht, wenn japanische Wissenschaftler, die am Projekt beteiligt sind, auch eine andere Anwendung sehen: "Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen", sagt Takaaki Kuratate.
Bis sie zu einem wirklichen Gesprächspartner werden, dürfte noch lange Zeit vergehen, wobei natürlich auch hier die Frage entsteht, wie individuell und damit auch autonom man humanoide Roboter haben will, selbst wenn dies nur das Sprachprogramm betrifft. Es nutzt ja auch nicht viel, wenn ein Gesicht dem eines Menschen ähnelt und nur Gefühle zeigt, die künstliche Intelligenz müsste auch Gefühle haben, also in dem Sinn, dass sie selbst auch eigenwillig agieren und reagieren, lachen und weinen kann. Das ist bei Videokonferenzen nicht notwendig, wenn es aber um einen Gesprächspartner ginge, der Menschen zumindest zeitweise ersetzen soll, wäre dies wohl unabdingbar.
Quelle : http://www.heise.de/tp/
Titel: Roboter bescheißt bei "Schere, Stein, Papier"
Beitrag von: SiLæncer am 28 Juni, 2012, 16:40
Japanische Forscher nennen es zwar Mensch-Maschine-Kooperation, doch was die von ihnen entwickelte Roboterhand macht, ist dann doch plumpes Schummeln. Beim Spiel Schere, Stein, Papier gewinnt die robotische Hand mit drei Fingern immer, weil sie mit einer Hochgeschwindigkeitskamera die Geste seines Mitspielers in einer Millisekunde erkennt und schnell die schlagende Geste formt: Stein bricht Schere, Schere schneidet Papier, Papier umwickelt Stein.
Das System wurde von Forschern des Ishikawa Oku Lab an der Tokioter Universität erschaffen. Die Geste des Mitspielers wird anhand der Umrisse erkannt. Das Projekt soll zeigen, dass Roboter so gut wie ohne Verzögerung adäquat auf menschliche Bewegungen reagieren können. In der Praxis wäre dies etwa für die Bewegungsunterstützung sinnvoll.
Quelle : www.heise.de
Titel: Kampfdrohnen laut Bundesregierung unbedingt erforderlich
Beitrag von: SiLæncer am 25 Januar, 2013, 21:15
Bereits als Überwachungsdrohnen von Deutschland gekauft wurden gab es große Diskussionen über ihren Einsatz. Nun geht die Bundesregierung einen Schritt weiter. Wie aus einer Anfrage der Linkspartei hervorgeht, sollen auch Kampfdrohnen angeschafft werden.
Über 400 Drohnen sind der Bundeswehr nicht genug. Aus der Sicht der Bundesregierung ist ihr Manko vor allem, dass sie nicht bewaffnet sind. Deswegen sollen nun auch Kampfdrohnen angeschafft werden.
Andrej Hunko von der Linkspartei hat zusammen mit seiner Fraktion eine Anfrage an die Bundesregierung gestellt, nun ist die Antwort eingetroffen. Thema ist die "Integration von schweren Drohnen in den allgemeinen zivilen Luftraum".
Auf die Frage "Welche Überlegungen existieren bei der Bundesregierung, zukünftig bewaffnete Drohnen zu nutzen?" antwortet die Regierung: "Aus den Einsatzerfahrungen der Bundeswehr wird deutlich, dass eine durchhaltefähige bewaffnete Aufklärung (armed overwatch) in heutigen und wahrscheinlichen Einsatzszenarien, als Schutz bei plötzlich auftretenden gravierenden Lageänderungen unbedingt erforderlich ist."
Als Beispiele für solche Drohnen werden "HERON 1, HERON TP und PREDATOR B / REAPER" sowie ein gemeinschaftliches europäisches Projekt der MALE-Klasse. MALE steht hierbei für Medium Altitude Long Endurance. Der Einsatz von Drohnen wird dabei tendenziell eher unkritisch gesehen: Drohnen "haben nicht den Zweck, eskalierend zu wirken."
Der Abgeordnete Andrej Hunko kommentiert: "Dieser Drohnen-Strategie trete ich vehement entgegen. Das Gleiche gilt für die Aufrüstung mit Aufklärungsdrohnen. Im Rahmen der Amtshilfe können diese, wie etwa beim G8-Gipfel in Heiligendamm, für polizeiliche Zwecke im Innern eingesetzt werden. Zivilen Anwendungen von Drohnen stehe ich grundsätzlich offen gegenüber. Flugroboter mit Sensoren zum Aufspüren gefährlicher Stoffe können bei Katastrophen helfen, fliegende Kameras machen Einsätze der Feuerwehr sicherer."
Die Antwort der Bundesregierung im Wortlaut ist hier (http://dip21.bundestag.de/dip21/btd/17/121/1712136.pdf) einzusehen.
Quelle : www.gulli.com
Titel: Atlas, der Rettungs-Terminator
Beitrag von: SiLæncer am 12 Juli, 2013, 16:16
DARPA, die Forschungsbehörde des US-Verteidigungsministeriums, hat einen neuen, humanoiden Roboter namens Atlas vorgestellt. Rund 1,90 Meter groß und knapp 150 Kilogramm schwer soll der Roboter bei zivilen Aufgaben wie etwa Rettungsaktionen bei Katastrophen zum Einsatz kommen. Entwickelt wurde der Roboter vom US-Unternehmen Boston Dynamics, von dem auch die superschnelle Roboterkatze "Cheetah" stammt, die im September vergangenen Jahres für Furore sorgte.
Rettungsroboter Atlas soll sich in unwegsamem Gelände bewegen und auch Lasten tragen können. Ebenfalls soll er mit seinen Händen und Füßen zu Kletterbewegungen in der Lage sein. Seine hydraulisch betriebenen Gelenken sollen ihm insgesamt 28 Freiheitsgrade ermöglichen. Im Kopf des Roboters sind Stereokameras sowie ein laserbasierter Entfernungsmesser installiert. Der Elektroantrieb des Roboters ist auf externe Stromversorgung angewiesen, was seine Einsatzfähigkeit im freien Gelände allerdings einschränken dürfte.
Beim Wettbewerb DARPA International Robotics Challenge (DRC) soll der Roboter dann zeigen, was er kann. Sieben Teams erhalten Gelegenheit, ein Modell des Roboters zu programmieren, um es dann bei verschiedenen Herausforderungen antreten zu lassen. Unter anderem muss Atlas dabei ein Fahrzeug fahren, Schutt wegräumen, Mauern durchbrechen, Ventile schließen und Löschschläuche anschließen. Stattfinden soll der Wettbewerb im Dezember dieses Jahres.
Quelle : www.heise.de
Titel: Roboter und Du: Öffentliche Debatte über kognitive Systeme
Beitrag von: SiLæncer am 17 Oktober, 2013, 20:40
Kognitive Systeme werden über kurz oder lang die Gesellschaft verändern, die Arbeitswelt ebenso wie das Gesundheitswesen, das Verkehrssystem oder die Kriegsführung. Auch das Selbstverständnis des Menschen wird durch Roboter und andere intelligente Systeme herausgefordert. Auf einer zweitägigen Konferenz wollen Mitglieder des europäischen Forschungsnetzwerks EUCog kommende Woche in Brighton darüber diskutieren, wie diese Veränderungen zu bewerten sind.
Im Mittelpunkt stehen dabei die Themen Militärroboter, Gesundheit und Alltagshilfen, kognitive Systeme in der Industrie sowie Sicherheit und Privatsphäre. Bemerkenswert ist dabei zum einen, dass ungewöhnlich viel Zeit für Diskussionen vorgesehen ist und zum anderen, dass diese Debatten nicht nur von Experten aus der Forschung geführt wird. So wurden für die Podiumsdiskussion am zweiten Tag der Konferenz ausdrücklich Teilnehmer gesucht, die verschiedene gesellschaftliche Bereiche repräsentieren. Vor allem aber ist die allgemeine Öffentlichkeit aufgerufen, sich zu beteiligen: Auf der eigens eingerichteten Internetseite robotsandyou (http://outreach.eucognition.org/robotsandyou) sowie über Twitter (#robotsandyou) können im Vorfeld der Konferenz Fragen und Kommentare formuliert werden.
Die Diskussion dieser Beiträge soll im Anschluss ebenfalls dort dokumentiert werden. Es sei das erste Mal seit Bestehen des Forschungsnetzwerks, sagt der Mitorganisator der Konferenz Ron Chrisley von der University of Sussex, "dass wir der Öffentlichkeit die Möglichkeit bieten, einige ihrer ethischen und sozialen Überlegungen von denen diskutieren zu lassen, die sich an der vordersten Front dieser Technologie bewegen". Das Angebot kommt nicht zu früh, wie Chrisley betont: "Intelligente Technologie entwickelt sich so schnell, dass wir bald erleben werden, wie Systeme die Kontrolle übernehmen und Entscheidungen treffen, mit denen wir nicht unbedingt einverstanden sind. Das wirft alle möglichen Fragen darüber auf, ob Maschinen jemals beigebracht werden kann, richtig und falsch zu unterscheiden – oder wer verantwortlich ist, wenn etwas schiefgeht."
Quelle : www.heise.de
Titel: OpenWorm: Ein Wurm steuert Roboter
Beitrag von: SiLæncer am 22 Januar, 2015, 19:47
Mit dem Nervensystem eines Wurms lässt sich auch ein Roboter steuern. Das Open-Science-Projekt OpenWorm nutzt die bekannten Neuronen des Fadenwurms C. Elegans in einem Lego-Roboter.
Hindernissen auszuweichen ist für Mensch und Roboter eine Herausforderung. Den vielfältigen Strategien für Roboter hat OpenWorm, ein Open-Science-Projekt, vor kurzem eine weitere hinzugefügt: Das Projekt simuliert das neuronale System des etwa einen Millimeter langen Fadenwurms C. Elegans. Dieser ist seit vielen Jahren ein biologischer Modellorganismus und alle seine 302 Neuronen sind daher gut erforscht. Im Wurm verarbeiten sie die eingehenden Signale und steuern die Muskeln – genau wie nun das künstliche Nervensystem „Connectom“ im Lego-Roboter EV3.
Der Input von drei Sensoren (für Ton, Berührung und Sonar) wird in Signale für die Sensorneuronen umgewandelt. Diese wiederum geben die Signale über Verbindungen wie im biologischen Vorbild weiter, bis schließlich über die 95 Motorneuronen die vier Motoren des Roboters erreicht werden. Doch nicht jedes Signal bedingt eine Reaktion: Die Motoren werden nur aktiviert, wenn ein Schwellenwert überschritten ist. Versendet werden die Informationen als UDP-Pakete, jedes Neuron hat dafür eine Port-Nummer und eine IP-Adresse. Die Programmierung des EV3 erfolgte über die Open Source-Software Monobrick.
https://www.youtube.com/watch?v=YWQnzylhgHc
OpenWorm existiert seit 2011, das Ziel des internationalen Open-Source-Projekts ist die virtuelle Simulation von C. Elegans. Eine erste Version soll im Sommer vorgestellt werden. Ferner geplant ist ein eigenständiger Roboter, gesteuert von einem Raspberry Pi, der sich ebenfalls auf Basis des Connectoms bewegt.
Quelle : www.heise.de
Titel: Roboter lernt Kochen aus Youtube-Videos
Beitrag von: SiLæncer am 31 Januar, 2015, 21:13
Roboter sollen sebstständig Arbeitsschritte aus YouTube-Kochvideos wiederholen und die korrekten Geräte handhaben -- das verspricht eine von Forschern der University of Maryland entwickelte Technik.
Ein von der Forschungsbehörde des US-Verteidigungsministeriums Defense Advanced Research Projects Agency (DARPA) finanziertes und von Forschern der University of Maryland entwickeltes Projekt soll Robotern ermöglichen, visuelle Daten aus "how to"-Kochvideos auf YouTube zu analysieren, die richtigen Küchenutensilien zu erkennen und damit die beobachteten Arbeitsschritte mit hoher Genauigkeit zu wiederholen. Hilfestellung durch den Menschen oder zusätzliche Programmierung soll dabei nicht nötig sein.
Objekte und Muster erkennen Roboter mittlerweile recht gut, aber Arbeitsabläufe aus Videos zu interpretieren und danach zu handeln ist wesentlich schwieriger. Genau dies soll das aus Mitteln des DARPA-Programms Mathematics of Sensing, Exploitation and Execution (MSEE) finanzierte System leisten. Programm-Manager Reza Ghanadan zufolge geht es dabei um das Erkennen und Verstehen, was in einer visuellen Szene passiert. Die nächste Aufgabe sei nun die Umsetzung in eine Handlung.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Roboter-lernt-Kochen-aus-Youtube-Videos-2534440.html)
Quelle : www.heise.de
Titel: Re: Roboter lernt Kochen aus Youtube-Videos
Beitrag von: Jürgen am 01 Februar, 2015, 08:56
Man stelle sich nur einmal vor, man hätte so einen Roboter in der Küche und der übte nun den Umgang mit dem Chef-Messer, dem Fleischerbeil oder dem Tranchierbesteck.
Und nun denke man an die Schwierigkeit elektronischer Objekterkennung. Möhre oder Daumen? Kürbis oder Kopf? Mett oder Akne? Schwein oder Schwager? Kartoffel oder Merkel?
Dann möchte man sicher nicht im selben Raum sein :wall