Logo nl.androidermagazine.com
Logo nl.androidermagazine.com

Android geeft ogen, oren en een gevoel van richting aan een lego nxt-robot

Anonim

Terwijl sommigen van ons onze telefoons gebruiken om te communiceren of geweldige games te spelen, zijn er mensen die wetenschap en vrije tijd naar een hoger niveau tillen. Mike Partain is een van die mensen. Met een standaard Lego NXT-robotica-kit, een Motorola Droid en een hele emmer vindingrijkheid en slimheid, heeft Mike sensoren toegevoegd die de robotica-kit miste - camera, GPS en kompas. Maak een pauze om erover te lezen in Mike's eigen woorden, een link naar de broncode (speciaal bedankt Mike!), En een paar video's met verschillende weergaven vanuit het onverbiddelijke oog van de Droid.

We namen contact op met Mike voor een beetje uitleg over dit project, omdat we eerlijk gezegd dingen nodig hadden die tot een niveau waren gebracht dat we een beetje beter konden begrijpen. Hij was behulpzaam genoeg om ons de lowdown te geven, die hier in zijn geheel is.

Een van mijn wensen aller tijden was om mijn eigen robot te hebben. En nu heeft Lego het spelen met robots praktisch gemaakt met de Lego NXT-robotkits. Deze kits volgen de geest van Legos in die zin dat ze eenvoudig, goedkoop en leuk zijn om te monteren in meerdere soorten wiel- en looprobots. De kits bevatten een brein dat drie motoren aanstuurt en maximaal 4 sensoren. Maar wat ontbrak was een externe camera, een kompas en een GPS. Voer de Motorola Droid in, of bijna elk Android-apparaat wat dat betreft. Omdat de Android-telefoon deze geavanceerde sensoren bevat en gebaseerd is op Java en open source, dacht ik dat het een eenvoudige zaak zou zijn om de Droid op mijn computer te "bedraden" en zijn sensoren naast mijn Lego Robots-software te controleren. Ik was niet ver weg. Ik worstelde een paar dagen met het uitwerken van de code die nodig was om het cameravoorbeeld te decoderen, maar al het andere verliep redelijk soepel. Uiteindelijk had ik een grote glimlach op mijn gezicht toen mijn Lego-robot zich over het enorme tapijt in de woonkamer waagde, terwijl ik het op afstand bediende alleen vanuit het beeld dat ik op mijn computerscherm kon zien. Het is niet de robot die verloren is in de ruimte, maar het kan niettemin veel jonge geesten openstellen voor hoe hun toekomst eruit kan zien.

Ik moet er rekening mee houden dat de software niet van "voltooide" kwaliteit is. Het is een proof of concept en het werkt. Ik kan het wel of niet ooit verbeteren of aanvullen, dus ik stel het beschikbaar zoals het is zonder licentie of beperkingen (of beloften).

Er zijn 3 soorten software;

De Android Java-code (droidSense). Deze code is een eenvoudige TCP-server die onbewerkte, niet-gecodeerde afbeeldingsgegevens levert (van het cameravoorbeeld, sensorgegevens en GPS-gegevens naar elke client.

Het stand alone.Net-programma (AssClient) dat communiceert met de Droid Java-server, decodeert de onbewerkte afbeeldingsgegevens en geeft de afbeelding en onbewerkte sensor- en GPS-gegevens weer.

Een Microsoft Robotics-studioservice (AndroidCameraService) die een generieke WebCam-afbeelding biedt voor gebruik door een visueel of standaard MRDS-programma.

Het Java-stuk wordt uitgevoerd op de Droid (er is geen UI, het toont alleen het voorbeeldoppervlak tijdens het hardlopen, gebruik 'force stop' om het te doden), en je voert vervolgens elk stuk op de pc uit (ik heb niet geprobeerd ze allebei uit te voeren) tegelijkertijd, maar ik denk dat het zou kunnen werken).

Geweldige saus daar. Hier zijn de video's van Mike:

YouTube-link voor StandAlone.wmv

YouTube-link voor AndroidCameraService.wmv

En tot slot, als je de kennis en de tijd hebt, hier is een link naar de broncode die Mike zo vriendelijk was te bieden. Nogmaals bedankt Mike, dit is een van de coolste dingen ooit!