Aujourd'hui, j'aimerais vous présenter la dernière voiture robot omnidirectionnelle Raspbot-V2 lancée par Yahboom.
Il s'agit d'une voiture de vision AI open source pour les débutants, adoptant le châssis de roue Mecanum , Raspberry Pi 5 comme contrôle principal. Avec une caméra haute définition, combinant la bibliothèque de traitement d'image OpenCV et le cadre d'apprentissage automatique Media-Pipe. Raspbot V2 peut réaliser la reconnaissance des couleurs, le suivi des cibles, la reconnaissance des plaques d'immatriculation, le pilote automatique, la reconnaissance faciale, la reconnaissance des gestes et d'autres fonctions.
Liste d'expédition et accessoires Introduction
Voici toutes les pièces du Raspbot V2 , comme indiqué ci-dessous.
Les utilisateurs peuvent choisir sans Raspberry Pi , avec RPi 5-2 Go ou RPi 5-8 Go.
Concernant la version, nous proposons 4 options : sans Raspberry Pi, avec RPi 5-2GB, avec RPi 5-4GB, avec RPi 5-8GB.
Le châssis adopte un matériau métallique, qui est solide et durable. Équipé de quatre roues omnidirectionnelles, il peut réaliser un mouvement omnidirectionnel.
Il y a un module à ultrasons à l'avant, une bande lumineuse colorée RVB à l'arrière.
Voici une caméra PTZ 2DOF qui peut pivoter de haut en bas et de gauche à droite. Livré avec un module de caméra grand angle 110° 1MP, la voiture Raspbot V2 peut compléter la fonction de suivi visuel.
Voici la carte pilote du robot Raspberry Pi 5, elle communique avec le Raspberry Pi 5 via l2C. Et prend en charge le protocole d'alimentation 5V/5A du Raspberry Pi 5.
Il s'agit d'un module de suivi à 4 canaux avec quatre sondes infrarouges de haute précision, principalement utilisées pour le suivi de ligne infrarouge.
Étapes d'assemblage
Ensuite, assemblons-le. Yahboom fournit une vidéo d'installation et des étapes d'assemblage détaillées.
Méthode de contrôle à distance
Maintenant, nous avons assemblé la voiture robot. Voyons-la rapidement.
Le Raspbot-V2 peut être contrôlé par l'application. Une fois la voiture démarrée, il suffit de se connecter au point d'accès Wi-Fi intégré de la voiture. Ensuite, nous pouvons contrôler la voiture par l'application. L'application comprend plusieurs fonctions de capteurs, peut surveiller l'état des capteurs en temps réel.
En plus de l'application pour téléphone mobile, Raspbot-V2 prend également en charge la télécommande infrarouge et PC.
Présentation des fonctions
La caractéristique la plus distinctive du Raspbot-V2 est sa fonction de vision IA. Il peut reconnaître les codes QR, les codes machine, les codes AR et peut reconnaître avec précision les couleurs, les visages, les postures du corps, même les mouvements des articulations des doigts, et peut également reconnaître les plaques d'immatriculation.
En combinant la reconnaissance visuelle avec le mouvement du châssis, la voiture peut également exécuter des fonctions d'interaction visuelle IA.
Par exemple, la caméra PTZ peut suivre les visages, les couleurs et les codes d'identification. Conduisez la voiture pour suivre les visages, les couleurs et les codes d'identification.
Raspbot-V2 prend en charge deux modes de suivi : suivi visuel complet des lignes ou suivi par capteur de suivi à 4 canaux situé au bas de la voiture.
Grâce à la carte de conduite autonome (à acheter en plus), la voiture robotisée peut compléter la fonction de conduite autonome de l'IA. Elle peut identifier les panneaux de signalisation et les feux de circulation et prendre les décisions correspondantes en fonction des résultats de la reconnaissance lors du suivi.
Raspbot-V2 prend également en charge le développement ROS, l'environnement ROS intégré. Yahboom fournit des cas de vision ROS AI. Simplifie le parcours d'apprentissage ROS, ce qui permet aux débutants de se lancer plus facilement dans le développement ROS.
Résumé
La voiture de vision AI Raspbot-V2 utilise Raspberry Pi 5 comme unité de commande principale. Équipé d'un châssis métallique à roues Mecanum, d'une carte de commande de robot Raspberry Pi 5, d'une caméra PTZ 2DOF, d'un capteur à ultrasons, d'un capteur de suivi à 4 canaux, d'OLED, etc.
Il peut réaliser le contrôle du mouvement des roues Mecanum, les fonctions de capteur, la reconnaissance visuelle et l'interaction Al, le contrôle du robot ROS.
De la conduite de base aux applications visuelles avancées en passant par les connaissances théoriques, il permet aux utilisateurs d'apprendre facilement les robots et la technologie visuelle de l'IA. Il convient parfaitement aux débutants et aux passionnés qui s'intéressent à la vision de l'IA et à la technologie robotique.