Implementierung von VEX GO STEM Labs
STEM Labs sind als Online-Lehrerhandbuch für VEX GO konzipiert. Wie ein gedrucktes Lehrerhandbuch enthält der lehrerorientierte Inhalt der STEM Labs alle Ressourcen, Materialien und Informationen, die zum Planen, Unterrichten und Bewerten mit VEX GO erforderlich sind. Die Lab Image Slideshows sind die den Studenten zugängliche Ergänzung zu diesem Material. Ausführlichere Informationen zur Implementierung eines MINT-Labors in Ihrem Klassenzimmer finden Sie im Artikel zur Implementierung von VEX GO STEM Labs.
Ziele und Standards
Ziele
Studierende bewerben sich
- Verwenden Sie den Block [Warten bis] zusammen mit dem Block <Found object>in einem VEXcode GO-Projekt, das kontinuierlich eine Bedingung überprüft und nicht zum nächsten Block übergeht, bis die Bedingung erfüllt ist.
Die Schüler werden verstehen
- So programmieren Sie den Code Base-Roboter, um eine Herausforderung zu lösen, z. B. das Fahren, bis ein Objekt erkannt wird.
Die Studierenden werden in der Lage sein,
- Verwenden von Build-Anweisungen zum Erstellen der Code Base 2.0 – Eye Forward.
- Verbinden eines Brains mit einem Tablet oder Computer in VEXcode GO.
- Speichern und Benennen von Projekten in VEXcode GO.
- Hinzufügen von VEXcode GO-Blöcken zu einem Projekt.
- Sequenzierungsblöcke in einem Projekt.
- Verwenden Sie Drivetrain-Blöcke in einem Projekt, um die Codebasis an einen bestimmten Ort zu leiten.
- Ändern von Parametern in VEXcode-Blöcken.
- Starten und Stoppen eines Projekts in VEXcode GO.
Die Schüler werden wissen
- Wie der Augensensor auf der Codebasis zum Erkennen von Objekten verwendet werden kann.
- Dass der <Found object> Block in VEXcode GO mit dem Augensensor zusammenarbeitet, um ein Objekt in seinem Sichtfeld zu erkennen.
- So verwenden Sie den Block [Warten bis] mit dem Block <Found object> in einem Projekt, um die Codebasis laufen zu lassen, bis sie ein Objekt erkennt.
Ziel(e)
Objektiv
- Die Schüler entwickeln ein VEXcode GO-Projekt unter Verwendung der Blöcke [Warten bis] und <Found object> zusammen mit Antriebsstrangblöcken, um eine Herausforderung zu meistern.
- Die Schüler werden erkennen, dass der Augensensor auf der Vorderseite von Code Base 2.0 – Eye Forward Objekte in seinem Sichtfeld erkennen kann.
- Die Schüler kommunizieren durch Worte und Gesten Verhaltensweisen, die die Codebasis ausführen muss, um eine Aufgabe zu erfüllen.
Aktivität
- Im ersten Spielteil erstellen die Schüler ein Projekt, bei dem sie die Blöcke [Warten bis] und <Found object> gemeinsam verwenden, um die Codebasis laufen zu lassen, bis der Augensensor ein Objekt erkennt.
- In Engage erstellen die Schüler die Code Base 2.0 – Eye Forward und identifizieren den Augensensor auf der Vorderseite der Code Base. Im ersten Spielteil sehen die Schüler, wie dieser Sensor verwendet wird, um die Anwesenheit eines Objekts zu erkennen, indem sie den Block <Found object> in einem Projekt verwenden und ihn auf einem Feld testen.
- Im ersten Spielteil beschreiben die Schüler, wie sich die Codebasis bewegt, wenn die Blöcke [Warten bis] und <Found object> mit Drivetrain-Blöcken in einem Projekt verwendet werden.
Bewertung
- Im zweiten Spielteil fügen die Schüler ihrer Konstruktion und ihren Projekten einen LED-Stoßfänger hinzu, sodass die LED in einer Farbe leuchtet, nachdem der Augensensor ein Objekt erkannt hat. Die Schüler erstellen und testen ein Projekt, bei dem die Code Base erfolgreich läuft, bis ein Objekt erkannt wird. Anschließend stoppt sie und der LED-Stoßfänger leuchtet 3 Sekunden lang.
- Im Abschnitt „Spielen“ identifizieren die Schüler die Position des Augensensors auf der Vorderseite der Codebasis und platzieren den Roboter so, dass sich das Hindernis im Sichtfeld des Augensensors befindet.
- Im zweiten Spielteil beschreiben die Schüler, wie sich die hinzugefügten zusätzlichen Blöcke auf das Verhalten der Codebasis auswirken.