Kickstarter Campaign for QBii the Multi-Function Robot

Supporters will be able to help donate robot kits to schools to support STEM education

Toronto, Ontario, Canada – Nov 2021 – Quantum Robotic Systems Inc. (QRS) announced the launch of a Kickstarter campaign for QBii, an affordable, multi-functional and expandable service robot. 

QBii (pronounced “cue + bee”) is about the size of a shoebox and weighs only 9 lbs. While most other service robots are limited to only one function, QBii performs a host of useful tasks in the home and in the workplace, including 

  • Carrying heavy items like grocery bins or boxes (up to 50 lbs)
  • Sweeping, mopping and vacuuming floors
  • Towing carts with payloads (up to 200 lbs)

QBii is also programmable and customizable. “People have the option of purchasing QBii as a kit, which makes it a powerful resource for STEM educators,” says QRS president, Dr. Frank Naccarato. “In fact, supporters of our Kickstarter can contribute towards the donation of QBii Kits to schools.”

QBii’s Kickstarter campaign starts today and runs until December 5th. The campaign page may be found here: https://www.kickstarter.com/projects/qrsrobotics/qbiithemultifunctionservicerobot  

Founded in 2016 by Dr. Frank Naccarato, Quantum Robotic Systems Inc. (QRS) is a Toronto-based company that makes unique mobile autonomous robots. QRS has developed and patented a novel stairclimbing technology that allows users to carry heavy, bulky loads up and down stairs in an easier, faster and safer way. The company has incorporated this technology into its Robotic Stairclimbing Assistant (ROSA), a service robot that can carry things while climbing up and down stairs, and Doll-E, a stairclimbing moving cart capable of lifting 500 lbs. 

Freiheit für Gelenkarmroboter: 7. Achse von igus erweitert den Arbeitsraum um bis zu 400 Prozent

drylin Zahnriemenachse ist durch Plug & Play-Kit jetzt mit allen Leichtbau- Roboterherstellern kompatibel

Köln, 25. November 2021 – Gelenkarmroboter über sechs Meter verfahren und ihren Arbeitsraum dadurch vervierfachen: Die 7. Achse, die igus für diesen Job anbietet, ist dank eines einfachen Plug & Play-Kits ab sofort mit allen Leichtbau-Gelenkarm-Robotern weltweit kompatibel. Bislang profitierten von dieser erhöhten Mobilität Modelle von Universal Robots, Epson und der robolink Serie von igus. Jetzt kommen auch Omron, Franka Emika, Doosan, Yuanda Robotics und viele weitere Anbieter von Leichtbaurobotik hinzu.

Erste Anwender der sogenannten 7. Achse, eine Linearachse mit elektrischem Zahnriemenantrieb, die igus im Sommer 2020 auf den Markt gebracht hat, waren laut Alexander Mühlens begeistert: „Plötzlich sind ihre Gelenkarmroboter dank der zusätzlichen Achse ähnlich mobil wie Menschen. Sie sind dadurch in der Lage, in Automationsumgebungen mehrere Aufgaben zu übernehmen sind dadurch deutlich produktiver“, so der Leiter Automatisierungstechnik bei igus. „Wir haben uns deswegen entschlossen, die Kompatibilität des Systems auf alle Hersteller weltweit zu erweitern – etwa Omron, Franka Emika, Doosan und Yuanda Robotics. Die Anpassung ermöglichen wir durch ein passendes Plug & Play-Kit aus Hard- und Software.“

Anschlussfertige Komplettlösung für alle Leichtbau-Gelenkarmroboter

Zukünftig können alle Leichtbau-Gelenkarmroboter im Gewichtsbereich von 10 bis 50 Kilogramm oder, abhängig von der Dynamik, einer Nutzlast von 2 bis 20 Kilogramm die 7. Achse nutzen. igus liefert das System als anschlussfertige Komplettlösung aus einer Hand. Es besteht aus einer bis zu sechs Meter langen Zahnriemenachse der Serie drylin ZLW mit zwei Parallelschienen aus Aluminium, die sich auf dem Boden, an Wänden oder Decken befestigen lassen und einem Zahnriemenantrieb mit Schrittmotor für eine Positioniergenauigkeit von 0,3 Millimetern. Mit dabei ist auch eine Energiekette für die Führung von Energie- und Datenleitungen, ein Schaltschrank-Integrationskit mit Leitungen, Motorcontroller und der jeweiligen Softwarelösung sowie ein Schlitten mit der Adapterplatte, die igus an die Geometrie tausender Gelenkarmroboter anpasst. Alle Komponenten sind perfekt aufeinander abgestimmt, so dass Anwender das System ohne teuren Konstruktions- und Abstimmungsaufwand schnell in Betrieb nehmen und von der neuen Mobilität profitieren können.

Betriebskosten sparen: 7. Achse ist schmier- und wartungsfrei

Anwender sparen nicht nur bei der Planung und Anschaffung der 7. Achse Zeit und Geld, sondern auch im Betrieb. Denn das System arbeitet wartungsfrei. Der Grund: Die Schlitten bewegen sich mithilfe von drylin Lineartechnik auf den Aluminiumschienen. Der Hochleistungskunststoff der Lager ermöglicht dabei einen reibungsarmen und wartungsfreien Trockenlauf – eine Nachschmierung ist nicht erforderlich. Die Schmiermittelfreiheit macht das System zudem hygienisch, da Schmieröl ein wahrer Schmutzmagnet ist. Insbesondere als Edelstahlvariante mit FDA konformen Komponenten ist die Linearführung somit bestens auch für Branchen wie die Lebensmittelindustrie geeignet.

fischertechnik Pneumatics controlling SMC Robot Gripper

fischertechnik Pneumatics controlling SMC Robot Gripper. Find the latest News on robots drones AI robotic toys and gadgets at robots-blog.com. Follow us on our Blog Instagram Facebook Twitter or our other sites. Share your robotics ideas and products with us. #robots #robot #omgrobots #roboter #robotic #mycollection #collector #robotsblog #collection #botsofinstagram #bot #robotics #robotik #gadget #gadgets #toy #toys #drone #robotsofinstagram #instabots #photooftheday #picoftheday #followforfollow #instadaily #fischertechnik #smc #pneumatic #gripper

Revopoint POP 2 3D Scanner Launched on Kickstarter

The upgraded and even more feature-rich version of Kickstarter’s Most Funded 3D Scanner Ever was launched today

Shenzhen—Following its successful Kickstarter story with the platform’s most funded 3D scanner ever, Revopoint is launching today the second generation of the device, offering a new version that supports more functions and an enhanced 3D scanning performance. Catering to the requirements of 3D printing creators, VR/AR model makers, reverse design creators, and high-tech enthusiasts in general, Revopoint POP 2 3D Scanner has been launched at <https://bit.ly/30tcYiJ>.

POP 2 adopts a Binocular and Micro-Structured Light formula for an exceptionally high precision and texture scanning performance. The device uses a proprietary micro projecting chip to ensure that the fast acquired 3D point cloud data is captured with a high accuracy of 10 frame rates, achieving a 0.1mm single-frame accuracy. 

POP 2 has a built-in high-performance 3D calculation chip that supports fast 3D scanning. Its embedded 6Dof Gyroscope also enhances a fluent shape, marker point and color feature point cloud stitching. “And the user can enjoy these amazing features with any ordinary smartphone, tablet, or laptop due to POP 2’s intelligent algorithms, which ensure speed and accuracy for the scanner regardless of the computer you use it with,” Miss. Vivian, the co-founder of Revopoint, added.

The 3D scanner launched today allows users to explore expanded scanning possibilities, including using it as a handheld scanner for big statues and other big figures outdoors, or to mark points to scan large or featureless objects. POP 2 also innovates by using an invisible eye-friendly infrared light source to project and scan. This makes it possible for users to scan human and animal faces and body parts without producing any discomfort to the scanned subject.

“This is a professional-grade 3D scanner with a wealth of high-end features offered at a consumer-grade price. Everyone can buy it and use it,” said Vivian. The versatile device supports high-precision handheld and turntable scanning, featuring impressive accuracy combined with a simplified one-button operation.

Designed for professionals and demanding hobbyists, POP 2 is a compact 3D scanner that can be carried and used anywhere. Its single cable can be used to charge and connect to the user’s smartphone, tablet, or laptop.

The scanner’s software is also simplified and user-friendly, allowing for the operation to be displayed on its interface. “If there’s an error, you can simply roll back, correct it, and keep moving forward with no worries,” Vivian assured. The software works with Windows, Mac, Android and iOS, unlike conventional 3D scanner software, which only supports Windows.

The company representative further clarified that the device is especially designed for 3D printing, human body scanning, large-scale sculpture scanning, a plethora of cultural and creative design applications, reverse modeling, different medical applications, and advanced VR/AR and 3D modeling applications.

The Revopoint POP 2 3D Scanner campaign on Kickstarter at <https://bit.ly/30tcYiJ> is seeking to raise $9,975 to fund the large-scale production of the scanner. Backers who support the campaign gain early and discounted access to the device.

About Our Company 

Revopoint focuses on the research and development of cutting-edge structured light and 3D imaging core hardware technology. The company’s core technical team leverages many years of experience in 3D imaging and artificial intelligence technology research and development, having developed different devices in the field, from chips to complete machines, focusing on 3D cameras and 3D scanner products.

KI ist mehr als nur ein Modell: Vier Schritte zum vollständigen Workflow-Erfolg

ngenieur*innen sind zunehmend bestrebt, KI erfolgreich in Projekte und Anwendungen zu integrieren, während sie versuchen, ihre eigene KI-Lernkurve zu meistern. Allerdings werden viele KI-Projekte nach wenig vielversprechenden Ergebnissen wieder verworfen. Woran liegt das? Johanna Pingel, Product Marketing Manager bei MathWorks, erläutert, warum es für Ingenieur*innen wichtig ist, sich auf den gesamten KI-Workflow zu konzentrieren und nicht nur auf die Modellentwicklung:

Ingenieur*innen, die Machine Learning und Deep Learning einsetzen, erwarten oft, dass sie einen großen Teil ihrer Zeit mit der Entwicklung und Feinabstimmung von KI-Modellen verbringen. Die Modellierung ist zwar ein wichtiger Schritt im Workflow, aber das Modell ist nicht alleiniges Ziel. Das Schlüsselelement für den Erfolg bei der praktischen KI-Implementierung ist das frühzeitige Aufdecken von Problemen. Außerdem ist es wichtig zu wissen, auf welche Aspekte des Workflows man Zeit und Ressourcen konzentrieren sollte, um die besten Ergebnisse zu erzielen. Das sind nicht immer die offensichtlichsten Schritte.

Der KI-gesteuerte Workflow

Es lassen sich vier Schritte in einem KI-gesteuerten Workflow differenzieren, wobei jeder Schritt seine eigene Rolle bei der erfolgreichen Implementierung von KI in einem Projekt spielt.
 

Schritt 1: Datenaufbereitung

Die Datenaufbereitung ist wohl der wichtigste Schritt im KI-Workflow: Ohne robuste und genaue Daten zum Trainieren eines Modells sind Projekte rasch zum Scheitern verurteilt. Wenn Ingenieur*innen das Modell mit „schlechten” Daten füttern, werden sie keine aufschlussreichen Ergebnisse erhalten – und wahrscheinlich viele Stunden damit verbringen, herauszufinden, warum das Modell nicht funktioniert.

Um ein Modell zu trainieren, sollten Ingenieur*innen mit sauberen, gelabelten Daten beginnen, und zwar mit so vielen wie möglich. Dies kann einer der zeitaufwendigsten Schritte des Workflows sein. Wenn Deep Learning-Modelle nicht wie erwartet funktionieren, konzentrieren sich viele darauf, wie man das Modell verbessern kann – durch das Optimieren von Parametern, die Feinabstimmung des Modells und mehrere Trainingsiterationen. Doch noch viel wichtiger ist die Aufbereitung und das korrekte Labeln der Eingabedaten. Das darf nicht vernachlässigt werden, um sicherzustellen, dass Daten korrekt vom Modell verstanden werden können.
 

Schritt 2: KI-Modellierung

Sobald die Daten sauber und richtig gelabelt sind, kann zur Modellierungsphase des Workflows übergegangen werden. Hierbei werden die Daten als Input verwendet und das Modell lernt aus diesen Daten. Das Ziel einer erfolgreichen Modellierungsphase ist die Erstellung eines robusten, genauen Modells, das intelligente Entscheidungen auf Basis der Daten treffen kann. Dies ist auch der Punkt, an dem Deep Learning, Machine Learning oder eine Kombination davon in den Arbeitsablauf einfließt. Hier entscheiden die Ingenieur*innen, welche Methoden das präziseste und robusteste Ergebnis hervorbringt.

Die KI-Modellierung ist ein iterativer Schritt innerhalb des gesamten Workflows, und Ingenieur*innen müssen die Änderungen, die sie während dieses Schrittes am Modell vornehmen, nachverfolgen können. Die Nachverfolgung von Änderungen und die Aufzeichnung von Trainingsiterationen mit Tools wie dem Experiment Manager von MathWorks sind entscheidend, da sie helfen die Parameter zu erklären, die zum genauesten Modell führen und reproduzierbare Ergebnisse liefern.
 

Schritt 3: Simulation und Tests

Ingenieur*innen müssen beachten, dass KI-Elemente meistens nur ein kleiner Teil eines größeren Systems sind. Sie müssen in allen Szenarien im Zusammenspiel mit anderen Teilen des Endprodukts korrekt funktionieren, einschließlich anderer Sensoren und Algorithmen wie Steuerung, Signalverarbeitung und Sensorfusion. Ein Beispiel ist hier ein Szenario für automatisiertes Fahren: Dabei handelt es sich nicht nur um ein System zur Erkennung von Objekten (Fußgänger*innen, Autos, Stoppschilder), sondern dieses System muss mit anderen Systemen zur Lokalisierung, Wegplanung, Steuerung und weiteren integriert werden. Simulationen und Genauigkeitstests sind der Schlüssel, um sicherzustellen, dass das KI-Modell richtig funktioniert und alles gut mit anderen Systemen harmoniert, bevor ein Modell in der realen Welt eingesetzt wird.

Um diesen Grad an Genauigkeit und Robustheit vor dem Einsatz zu erreichen, müssen Ingenieur*innen validieren, dass das Modell in jeder Situation so reagiert, wie es soll. Sie sollten sich auch mit den Fragen befassen, wie exakt das Modell insgesamt ist und ob alle Randfälle abgedeckt sind. Durch den Einsatz von Werkzeugen wie Simulink können Ingenieur*innen überprüfen, ob das Modell für alle erwarteten Anwendungsfälle wie gewünscht funktioniert, und so kosten- und zeitintensive Überarbeitungen vermeiden.
 

Schritt 4: Einsatz

Ist das Modell reif für die Bereitstellung, folgt als nächster Schritt der Einsatz auf der Zielhardware – mit anderen Worten, die Bereitstellung des Modells in der endgültigen Sprache, in der es implementiert werden soll. Das erfordert in der Regel, dass die Entwicklungsingenieur*innen ein implementierungsbereites Modell nutzen, um es in die vorgesehene Hardwareumgebung einzupassen.

Die vorgesehene Hardwareumgebung kann vom Desktop über die Cloud bis hin zu FPGAs reichen. Mithilfe von flexiblen Werkzeugen wie MATLAB kann der endgültige Code für alle Szenarien generiert werden. Das bietet Ingenieur*innen den Spielraum, ihr Modell in einer Vielzahl von Umgebungen einzusetzen, ohne den ursprünglichen Code neu schreiben zu müssen. Das Deployment eines Modells direkt auf einer GPU kann hier als Beispiel dienen: Die automatische Codegenerierung eliminiert Codierungsfehler, die durch eine manuelle Übersetzung entstehen könnten, und liefert hochoptimierten CUDA-Code, der effizient auf der GPU läuft.

Gemeinsam stärker

Ingenieur*innen müssen keine Datenwissenschaftler*innen oder gar KI-Expert*innen werden, um mit KI erfolgreich zu sein. Mit Werkzeugen für die Datenaufbereitung, Anwendungen zur Integration von KI in ihre Arbeitsabläufe und mit verfügbaren Expert*innen, die Fragen zur KI-Integration beantworten, können sie KI-Modelle auf Erfolgskurs bringen. In jedem dieser Schritte im Workflow haben Ingenieur*innen die Möglichkeit, flexibel ihr eigenes Domänenwissen einzubringen. Dies ist eine wichtige Basis, auf der sie mit den richtigen Ressourcen aufbauen und die sie durch KI ergänzen können.

Über MathWorks

MathWorks ist der führende Entwickler von Software für mathematische Berechnungen. MATLAB, die Programmiersprache für Ingenieurwesen und Wissenschaft, ist eine Programmierumgebung für die Algorithmen-Entwicklung, Analyse und Visualisierung von Daten sowie für numerische Berechnungen. Simulink ist eine Blockdiagramm-basierte Entwicklungsumgebung für die Simulation und das Model-Based Design von technischen Mehrdomänen-Systemen und Embedded Systemen. Ingenieure und Wissenschaftler weltweit setzen diese Produktfamilien ein, um die Forschung sowie Innovationen und Entwicklungen in der Automobilindustrie, der Luft- und Raumfahrt, der Elektronik, dem Finanzwesen, der Biotechnologie und weiteren Industriezweigen zu beschleunigen. MATLAB und Simulink sind zudem an Universitäten und Forschungsinstituten weltweit wichtige Lehr- und Forschungswerkzeuge. MathWorks wurde 1984 gegründet und beschäftigt mehr als 5000 Mitarbeiter in 16 Ländern. Der Hauptsitz des Unternehmens ist Natick, Massachusetts, in den USA. Lokale Niederlassungen in der D-A-CH-Region befinden sich in Aachen, München, Paderborn, Stuttgart und Bern. Weitere Informationen finden Sie unter mathworks.com.

Low-Cost-Portalroboter von igus in nur fünf Minuten online konfigurieren

drylin Portalkonfigurator senkt Hürde für den Einstieg in die Automatisierung

Köln, 16. November 2021 – In fünf Minuten einen Portalroboter online konfigurieren und programmieren, sofort den Preis erhalten, Funktionstests in der Augmented Reality durchführen und CAD-Daten mit technischer Zeichnung herunterladen: Das Alles macht der neue Portalkonfigurator von igus möglich. Angebunden an den Robotik-Marktplatz RBTX ist es durch ihn besonders einfach in die Welt der Low-Cost-Automation einzusteigen.

Mit dem neuen igus Online-Konfigurator lassen sich Linienportale, Flächenportale und Raumportale der drylin Serie konfigurieren. Es wird lediglich ein Browser mit Internetzugang benötigt. Von überall auf der Welt kann der Anwender dann ein Linienportal auswählen. Über virtuelle Schieberegler legt er die gewünschten Hublängen fest und sieht das 3D-Modell des Portals, das sich in Echtzeit den Schieberegler-Veränderungen anpasst, in einer 360-Grad-Ansicht von allen Seiten. Ebenso einfach kann der Nutzer das Portal um die passende Steuerung erweitern und erstellt so innerhalb von wenigen Minuten seine anschlussfertige Roboter-Lösung. Ein Festpreis, der sich dem Konfigurationsgeschehen ebenfalls in Echtzeit anpasst, ist sofort sichtbar. CAD-Modelle und Bemaßungszeichnungen stehen nach der Konfiguration direkt zum Download bereit. Darüber hinaus ist es möglich, den Roboter durch die Eingabe weniger Parameter auch zu programmieren. Als digitaler Zwilling visualisiert ein animiertes 3D-Modell dann die festgelegten Bewegungen. „Wir folgen mit dieser Funktion dem Motto ,Test-before-Invest‘“, sagt Alexander Mühlens, Leiter Geschäftsbereich Automatisierungstechnik und Robotik bei igus. „Bediener gewinnen dadurch online ein Gefühl für Roboterbewegungen und Taktzeiten. So kommen sie in der Realität schneller zu den gewünschten Ergebnissen, da sie die Hardware schon vor dem Kauf virtuell testen können.“

RBTX: Der Marktplatz für Low-Cost-Robotik

Der drylin Portalkonfigurator ist an den Low-Cost-Automation Marktplatz RBTX angebunden, auf dem verschiedenste Anbieter von Low-Cost-Robotik ihre Produkte und Kompetenzen bündeln. So finden sich hier nicht nur Linearroboter, sondern auch Scara-Roboter, Gelenkarmroboter und Deltaroboter. Kombinieren lassen sie sich mit Vision-Systemen, Gripper, GUIs, Motoren, Sensoren und Steuerung verschiedener Hersteller. Alle Komponenten, die im Konfigurator zur Verfügung stehen, wurden miteinander kombiniert und Kompatibilitätstests durchgeführt. Dadurch wissen Anwender bei jeder Konfiguration, dass sie auf der sicheren Seite sind. „Die Automatisierung entscheidet in immer mehr Branchen über die Wettbewerbsfähigkeit von Unternehmen. Mit dem neuen Portalkonfigurator gehen wir weiter in die Richtung, es auch kleinen Betrieben mit begrenzten Ressourcen zu ermöglichen, ohne hohen Kosten- und Zeitaufwand zu automatisieren“, fasst Alexander Mühlens zusammen. „Dieses Online-Tool ist ein erster Schritt, die auf RBTX befindlichen Produkte schon vor dem Kauf zu testen. Für die Zukunft denken wir an einen Konfigurator, mit dem sich vor jeglicher Investition alle Komponenten auf dem Marktplatz miteinander verheiraten und dann testen lassen.“

Probieren Sie den igus Portalkonfigurator unter https://www.igus.de/info/n21-portalkonfigurator aus.

Tactile Telerobot by Converge Reaches Finals of $10 Million ANA Avatar XPRIZE

Judges recognize the world’s first haptic robotic system to transmit realistic touch feedback to an operator located anywhere in the world

Converge Robotics Group reached the finals of the $10M ANA Avatar XPRIZE competition for an avatar system that can transport human dexterity to a remote location in real-time.

Converge Robotics Group is an international collaboration between Shadow Robot Company, HaptX, and Tangible Research responsible for developing the Tactile Telerobot, a high-fidelity dexterous telerobot in use in the U.S., U.K., and Asia, and now advanced to the ANA Avatar XPRIZE finals.

The Tactile Telerobot features Shadow Robot’s Dexterous Hands, HaptX Gloves DK2 with true-contact haptics, SynTouch’s biomimetic tactile sensors, and Universal Robots robotic arms to allow an operator to perform complex human tasks instantaneously across the globe such as handling objects in laboratories or workshops. The Tactile Telerobot mimics your movements, displaying human-like and reactive behaviours. Users can feel what the robot hands are touching, making it possible to connect humanity across vast distances like never before.

The groundbreaking technology of the Tactile Telerobot has been described as “weirdly natural” by Amazon founder Jeff Bezos, who added, “The tactile feedback is really tremendous.” The Telerobot’s most recent improvements for the XPRIZE Semifinals, hosted in Miami, include the use of high-fidelity audio and visual technology and other safety and usability improvements. It meets the competition’s criteria for a non-autonomous Avatar System with which an operator can see, hear, and interact within a remote environment in a manner that feels as if they are truly there.

Rich Walker, Managing Director of the Shadow Robot Company, said, “We’re coming up to Shadow’s 25th anniversary as a company and what a way to lead up to it by reaching the finals for a four-year global competition! The Shadow Dexterous Hands have been a sought-after product among the research community ever since we formally registered as a company. What the Hands can achieve today, on their own and as part of the Tactile Telerobot, is truly revolutionary and it’ll only get better.”

“Lifelike touch feedback is a critical component of transporting human presence,” said Jake Rubin, founder and CEO of HaptX.  “The Tactile Telerobot demonstrates the difference that true-contact haptics makes in the field of robotic teleoperation, and we’re delighted for HaptX and our partners in Converge Robotics Group to receive this recognition from the ANA Avatar XPRIZE judges.” 

“I’m proud of the accomplishments of our international and interdisciplinary team,” said Jeremy Fishel, founder and CTO of Tangible Research and Converge’s XPRIZE team lead. “We’ve brought together experts in robotic dexterity and haptics with the amazing technology of our partners and collaborators to do amazing things.”

In the XPRIZE Semifinals, the Converge Robotics Group debuted their collaboration with Voysys, a company that specialises in high-quality, low-latency video communication for the teleoperation of vehicles and machines.

“The combination of the Voysys video pipeline with ultra-low latency, the HaptX Gloves DK2, and the sensitive robot hand from Shadow Robot truly revolutionizes telepresence and makes remote working possible for a whole range of new industries,” said Magnus Persson, CEO of Voysys.

“Advancing to the ANA Avatar XPRIZE finals alongside excellent competition is a significant milestone in this journey,” said the Converge Robotics Group in a statement “We look forward to showing how our Telerobot system can be used by ordinary people in amazing ways, making engineering jobs safer, reducing the need for global travel (and CO2 emissions) and letting us spend more time at home with our loved ones.”

Robotics Smarttech – mein erstes Mal fischertechnik

Auch wenn ich schon viele Roboter gebaut und getestet habe, ist dies heute eine Premiere! In den letzten Tagen habe ich zum ersten Mal einen Roboter von fischertechnik gebaut.  Die Pressankündigung des fischertechnik Robotics Smarttech haben wir bereits in den letzten Tagen vorgestellt. [LINK]

Nun durfte ich ihn selber testen. Das Bausystem war mir zwar neu, hat mir aber auf Anhieb Spaß gemacht und ist wirklich einfach zu verwenden. Hat man sich einmal an die Bauanleitung und deren Stil gewöhnt, ist diese einfach verständlich. Während des Zusammenbaus des vierrädrigen Roboters mit den Omniwheels und dem Gestensensor, der mich ungefähr vier Stunden beschäftigt hat, habe ich dann auch gelernt auf welche Feinheiten ich in der Anleitung achten muss. Mir, als fischertechnik Neuling, sind zwei, drei Fehler passiert, die mir aber beim nächsten fischertechnik Modell bestimmt nicht mehr passieren würden. Überrascht war ich, dass man bei diesem Set die Kabel noch selber ablängen, abisolieren und die Steckverbinder anbringen muss. Das war ich aus anderem Roboter Kästen bisher nicht gewohnt; dies bietet aber die tolle Möglichkeit Kabel nach eigenen Wünschen und Längen zu erstellen. Diese Möglichkeit besteht bei vielen anderen Herstellern nicht und gerade wenn man mal einen etwas größeren Roboter baut, ist es von Vorteil wenn man lange Kabel selber fertigen kann.

Die Bauteile halten gut zusammen und es lassen sich sehr stabile Roboter konstruieren. Kinder brauchen hier vielleicht an der ein oder anderen Stelle etwas Unterstützung wenn die Teile, gerade wenn sie noch neu sind, noch etwas schwergängig zusammen zu stecken sind. Der von mir gebaute Roboter war dafür im Anschluss sehr stabil und überlebt selbst kleinere Stürze ohne dass Teile abfallen.

Die coolen Omniwheels ermöglichen es dem Roboter jederzeit in jede Richtung zu fahren. Solche Räder findet man in Robotersets leider viel zu selten! Daher fiel die erste Wahl auch direkt auf das Basismodell mit den neuen Omniwheels. Anschließend habe ich dies mit dem Spursensor und dem Gestensensor erweitert. Neben diesen beiden Modellvarianten sind Anleitungen für weitere sieben Roboter enthalten.

Der Roboter lässt sich entweder mit einem Netzteil oder mit einem Akku-Set betreiben, beides muss leider extra erworben werden.

Die aktuellste Version der für die Programmierung benötigten Software ROBOPro fand ich auf der Homepage von fischertechnik. Nachdem ich den Roboter über die Konfiguration auf dessen Touchscreen mit meinem WLAN verbunden habe (Okay: USB oder Bluetooth wäre auch gegangen, aber der Geek in mir musste direkt WLAN ausprobieren), konnte ich diesen mit der ROBOPro Software verbinden und programmieren. Das für die Cloud Funktionen benötigte Update wurde beim ersten Verbinden mit der ROBOPro Software mir sofort angeboten und ich konnte es problemlos installieren. Mit diesem Update lässt sich der Roboter als IoT Device in die fischertechnik Cloud einbinden und als smartes Gerät mit dem Internet kommunizieren. So kann man zum Beispiel eine Alarmanlage bauen, die einen über das Internet beim Auslösen alarmiert.

Neben der Möglichkeit in der ROBOPro Software grafisch zu programmieren, kann mit einer zusätzlichen frei verfügbaren Software auch in Scratch grafisch programmiert werden. Wer lieber textbasiert programmieren möchte kann dies auch in C. Da das Betriebssystem des Roboters auf Linux basiert, gibt es hier bestimmt noch jede Menge weitere, mir bisher unbekannte, Möglichkeiten den Roboter zu “hacken” und noch mehr Funktionen hinzuzufügen. Das Einloggen auf dem Roboter per SSH ist auf jeden Fall möglich und über den SD-Karten Slot lassen sich alternative Betriebssysteme installieren und der Speicher erweitern.

Mein erster fischertechnik Roboter, genauer der Robotics Smarttech Roboter, hat mir bisher Freude bereitet und ich hatte Spaß daran mal ein mir bisher unbekannte Bausystem auszuprobieren. Mit den “selbstgebauten” Kabeln und den universellen Ei- und Ausgängen am Controller, sowie der Cloud Anbindung, finden sich sicherlich auch tolle Einsatzmöglichkeiten abseits vom Einsatz als Spielzeugroboter.

MAKER LEARN FESTIVAL

FREE E-LEARNING ARRIVES TO YOUR HOME OR OFFICE FROM 8 TO 12 NOVEMBER BY MAKER FAIRE ROME

Over 50 webinars, talks, online and free workshops about all the innovation topics offered by our makers and partners: check out the complete list of webinars and choose the one that suits you the most!

Participating is simple: you just need to register for the event of your choosing and then you will receive an alert just before it starts. All webinars are held on Zoom: make sure you got the app on your device.


MAKER LEARN FESTIVAL: E-LEARNING FOR EVERYBODY

Maker Learn Festival is truly for everyone.

A few examples? If you are a professional, an entrepreneur, a startupper, take look at the webinars dedicated to the world of entrepreneurship with specific focus on digital and robotics, artificial intelligence, digital manufacturing and 3D printing, transition 4.0, PNRR and incentives for SMEs . Eg check the selection for the fabrication topic here.

And that’s not all, an entire section is dedicated to innovation born within the Italian universities and there is no shortage of webinars and specific workshops for students and young people!

“Academic” events: select the “Universities” tag and discover all the workshops and talks organized by some of the most important Italian universities, including the University of Pisa, La Sapienza University of Rome, the University of Studies Roma Tre, the Polytechnic of Bari.

Appointments for students and teenagers: dedicated contents from robotics to experiments to be done in the classroom or at home along with the parents.


And if you want to, you can specifically select the topics of your interest, browse by topics such as art, robotics, artificial intelligence … the offer is very wide!

Come and discover all the innovation you need on the Maker Learn Festival, from 8 to 12 November!

WHAT IS MAKER LEARN FESTIVAL

Maker Learn is the project of Maker Faire Rome and PID Punto Impresa Digitale, for continuous training, a web gateway in which you can find free training opportunities throughout the year covering the most diverse topics. Maker Learn Festival is the natural continuation of Maker Faire Rome, the event that was held from 8 to 10 October. With Maker Learn Festival we celebrate the continuous training by concentrating over 50 different courses in one week. By participating in the Maker Learn Festival, you can experience firsthand the benefits that “life long learning” can offer you.

Fraunhofer IAIS und Dr. Hans Riegel-Stiftung realisieren erste 3D-Simulation zu Roboter-Programmierungen im Open Roberta Lab

Seit rund vier Jahren arbeiten das Fraunhofer-Institut für Intelligente Analyse- und Informations-systeme IAIS und die Dr. Hans Riegel-Stiftung im Rahmen ihrer Projekte »Open Roberta®« und »TouchTomorrow« zusammen, um junge Menschen für Coding & Co. zu begeistern. Das jüngste Ergebnis der Zusammenarbeit ist die erste 3D-Simulation des humanoiden Roboters NAO für die Open-Source-Plattform »Open Roberta Lab«. NAO ist mit Anschaffungskosten von mehreren tausend Euro im Vergleich zu anderen Mikrocontrollern und Hardware-Systemen wie Calliope mini oder LEGO Mindstorms sehr teuer und deshalb in Privathaushalten oder auch in Schulen kaum vertreten. Ab sofort haben Open-Roberta-Fans die Möglichkeit, die anschaulichen Programmiermöglichkeiten des NAO in einer 3D-Simulation auszuprobieren und zu erlernen. Schon jetzt ist das Open Roberta Lab in mehr als 20 Sprachen verfügbar und wird in über 100 Ländern von ca. 500 000 Personen pro Monat genutzt – mit dem 3D-Roboter steigt die Attraktivität der Programmierplattform um ein weiteres Highlight.

Das »Open Roberta Lab« ist eine frei verfügbare grafische Programmierplattform, die das Programmieren lernen leicht macht. Auf der Open-Source-Plattform der Initiative »Roberta® – Lernen mit Robotern« des Fraunhofer IAIS erstellen selbst Neulinge im Handumdrehen erste Programme per »drag and drop«. Die Besonderheit: Im Open Roberta Lab erwachen reale Roboter und Mikrocontroller zum Leben. »Hands-on« erlernen Nachwuchs-Programmiererinnen und -Programmierer die Grundlagen des Codens und entdecken spielerisch die unzähligen Möglichkeiten, die die Welt der Technik und Naturwissenschaften für sie bereithält.

Unter den aktuell 14 Roboter- und Hardware-Systemen, die im Open Roberta Lab programmiert werden können, ist der humanoide Roboter NAO mit seinen 25 Bewegungsgraden, umfangreicher Sensorik und einem Kaufpreis von mehr als 5000 Euro die komplexeste und teuerste Variante. Gleichzeitig ist es natürlich besonders spannend, einen humanoiden Roboter programmieren zu können. Aus diesem Grund haben das Fraunhofer IAIS und Dr. Hans Riegel-Stiftung nun eine erste 3D-Simulation für die Plattform integriert, so dass sich die Nutzer*innen auch ohne teure Hardware die Resultate ihrer Programmierungen in einer detaillierten Simulation anschauen können. Dies soll u. a. zusätzliche Erfolgserlebnisse ermöglichen und damit die Motivation steigern.

Das erste Tutorial mit 3D-Simulation steht ab sofort auf https://lab.open-roberta.org/ zur Verfügung.

Weitere Kooperationen von Fraunhofer IAIS und Dr. Hans Riegel-Stiftung

Begonnen hat die Zusammenarbeit im Rahmen der Entwicklung des »TouchTomorrow-Trucks« der Dr. Hans Riegel-Stiftung, der bundesweit an Schulen fährt, um Schülerinnen und Schüler durch das Erleben und Ausprobieren von Zukunftstechnologien für Bildungs- und Berufswege im MINT-Bereich (Mathematik, Informatik, Naturwissenschaft, Technik) zu begeistern. Eine von acht Themenstationen im Truck befasst sich mit humanoiden Robotern. Schülerinnen und Schüler können dort dank mehrerer vom Fraunhofer IAIS entwickelter Tutorials einen echten NAO-Roboter programmieren. Neben dem Truck sind in den vergangenen Jahren weitere Angebote entstanden: u. a. »TouchTomorrow-Teaching« mit Unterrichtsmaterial und Fortbildungen für Lehrkräfte, »TouchTomorrow-Stream« als Livestream-Dialogformat für Distanz-Lehranlässe wie Covid-19 und das »TouchTomorrow-Lab« im Deutschen Museum Bonn.

Das Deutsche Museum Bonn ist einer von fünf »Open Roberta Coding Hubs« in NRW. Dies sind außerschulische Lernorte, die mit Hardware wie Robotern und Laptops ausgestattet und deren Personal vom Roberta-Team des Fraunhofer IAIS vor Ort zu Roberta-Teachern ausgebildet werden. Das TouchTomorrow-Lab im Deutschen Museum Bonn bietet eine ideale Kulisse für die diversen Workshops in diesem Kontext.

Beate Jost, Technische Leiterin der Roberta-Initiative und Wissenschaftlerin am Fraunhofer IAIS: »Wir freuen uns, dass unsere langjährige Kooperation mit der Dr. Hans Riegel-Stiftung nun in eine neue Phase geht. Mit der neuen NAO-Simulation haben Programmier-Fans und vor allem Schulen ab sofort die Gelegenheit, spannende Experimente mit humanoiden Robotern auszuprobieren, ohne dafür gleich tief in die Geldbörse greifen zu müssen.«