Skip to main content
Lehrerportal

Implementierung von VEX GO STEM Labs

STEM Labs sind als Online-Lehrerhandbuch für VEX GO konzipiert. Wie ein gedrucktes Lehrerhandbuch enthält der lehrerorientierte Inhalt der STEM Labs alle Ressourcen, Materialien und Informationen, die zum Planen, Unterrichten und Bewerten mit VEX GO erforderlich sind. Die Lab Image Slideshows sind die den Studenten zugängliche Ergänzung zu diesem Material. Ausführlichere Informationen zur Implementierung eines MINT-Labors in Ihrem Klassenzimmer finden Sie im Artikel zur Implementierung von VEX GO STEM Labs.

Ziele und Standards

Ziele

Studierende bewerben sich

  • Verwenden des Augensensors zur Navigation durch ein Farbscheibenlabyrinth.
  • Verwenden des Augensensors zum Erkennen von Objekten und Vermeiden von Hindernissen.
  • So navigieren Sie mithilfe von Sensoren durch die Codebasis durch ein Farbscheibenlabyrinth.

Die Schüler werden verstehen

  • Wie der Augensensor mit VEXcode GO verwendet werden kann, um ein Objekt oder eine Farbe zu erkennen und eine Aktion auszulösen, wenn ein Objekt erkannt wird.

Die Studierenden werden in der Lage sein,

  • Verwenden von Build-Anweisungen zum Erstellen der Code Base 2.0 – Eye Forward.
  • Verbinden eines Brains mit einem Tablet oder Computer in VEXcode GO.
  • Öffnen eines Beispielprojekts in VEXcode GO.
  • Konfigurieren einer Codebasis in VEXcode GO.
  • Benennen und Speichern eines Projekts in VEXcode GO.
  • Starten und Stoppen eines Projekts in VEXcode GO.
  • Neuerstellung eines Projekts in VEXcode GO basierend auf einem Code-Image.
  • Ändern eines Projekts in VEXcode GO durch Ändern von Parametern und Hinzufügen von Blöcken.
  • Verwenden des Augensensors zum Erkennen eines Objekts.
  • Verwenden des Augensensors zum Erkennen der Farben Rot, Grün und Blau.

Die Schüler werden wissen

  • So verwenden Sie den Augensensor, um einem Objekt auszuweichen.
  • So verwenden Sie den Augensensor, um die Farbe eines Objekts zu erkennen.
  • Diese Daten vom Augensensor können verwendet werden, um ein Roboterverhalten auszulösen.

Ziel(e)

Objektiv

  1. Die Schüler verwenden den Augensensor auf der Codebasis, um eine Wand zu erkennen.
  2. Die Schüler verwenden den Augensensor, um die Farbe der erkannten Scheibe zu melden.

Aktivität

  1. Im ersten Spielteil verwenden die Schüler das Beispielprojekt „Hindernisse vermeiden“, bei dem der Augensensor ein Objekt erkennt und ihm ausweicht.
  2. Im zweiten Teil des Spiels erstellen die Schüler ein Projekt, das die Codebasis mithilfe der vom Augensensor erkannten Farbe durch einen Kurs führt. Die Codebasis biegt bei Grünerkennung nach rechts und bei Blauerkennung nach links ab.

Bewertung

  1. Die Schüler demonstrieren ihr Verständnis für die Verwendung des Augensensors zum Erkennen von Objekten, indem sie das Beispielprojekt „Hindernisse vermeiden“ testen.
  2. Um ihren Einsatz der Farberkennung durch den Augensensor weiter zu demonstrieren, erstellen die Studierenden eine Ergänzung zu ihrem Projekt, sodass die Codebasis die Fahrt stoppt, wenn im Kurs die Farbe Rot erkannt wird.

Verbindungen zu Standards