RBM3P AI ROBOT ROSMASTER M3 Pro ROS2 With Display

คำอธิบาย

AI ROBOT ROSMASTER M3 PRO With Display

ROSMASTER M3 Pro คือแพลตฟอร์มหุ่นยนต์อัจฉริยะ AI ระดับ “Embodied Intelligence” ที่ Yahboom พัฒนาเพื่อการศึกษา และ การวิจัย โดยเฉพาะ

  • ระบบหลัก: ROS2 Humble (รองรับ RViz2, Gazebo, MoveIt2, Nav2)
  • แชสซี: อลูมิเนียม + ล้อ Mecanum + ระบบ Pendulum Suspension ขับเคลื่อนได้ทุกทิศทาง
  • กล้อง: Binocular Structured Light Depth Camera – ใช้สำหรับ 3D Perception / Grasping
  • แขนกล: 6 DOF Robotic Arm (Servo based – รองรับ MoveIt Simulation)
  • เซนเซอร์: Dual TOF LiDAR (ด้านหน้าและด้านหลัง) → รองรับ SLAM Mapping + Obstacle Avoidance

สเปกและคุณสมบัติหลัก (Technical Overview)

หมวด รายละเอียด
🔹 Main Control Board (เลือกได้) Raspberry Pi5-16GB/ Jetson Nano 4GB / Jetson Orin Nano Super 8GB / Jetson Orin NX Super 8GB, 16GB
🔹 โครงสร้าง (Chassis) อลูมิเนียมอัลลอย, ล้อ Mecanum 80 mm, โครงช่วงล่างแบบ Pendulum Suspension
🔹 ระบบนำทาง (Navigation) LiDAR 2 ตัว (หน้า-ซ้าย, หลัง-ขวา) → 360° Mapping, TOF ranging
🔹 กล้อง (Vision) Depth Camera (สำหรับ 3D Mapping / Grasping)
🔹 แขนกล (Manipulator) 6 DOF Robotic Arm + MoveIt Simulation
🔹 AI & Voice Perception มีระบบ Speech Recognition + NLP พร้อม Speaker ตอบสนองแบบ Q&A
🔹 ระบบ AI Model รองรับ Multimodal Interaction (ภาพ, เสียง, ข้อความ) + RAG Knowledge System
🔹 OS / Framework ROS2 Humble + AI Toolkit + SLAM + Visual Recognition Modules
🔹 Applications ใช้สอน AI / SLAM / Robot Control / Research Projects / Competition Platform

ความสามารถเชิงระบบ (Core Capabilities)

  • รองรับการ โต้ตอบด้วยเสียง (Voice Interaction) และ ภาพ (Vision) พร้อมประมวลผลแบบเรียลไทม์
  • มีโมดูล Semantic Understanding + RAG AI System สำหรับ Reasoning และ Task Awareness
  • สามารถทำ 3D Grasping + MoveIt Simulation ด้วยแขนกล 6 แกน
  • มีเอกสารสอน / โค้ด / ตัวอย่าง ROS2 สำหรับ มหาวิทยาลัย และ ห้องแล็บวิจัย

โมดูลการสอนและงานวิจัย (Educational Modules)

  1. ROS2 Basic Tutorials – Publisher / Subscriber / TF / URDF
  2. SLAM Mapping & Autonomous Navigation – Cartographer, Nav2
  3. MoveIt 2 Arm Control – Kinematics + Inverse Kinematics
  4. Vision Recognition + 3D Grasping – Depth Perception + Object Tracking
  5. Voice Interaction + AI Planning – Speech to Action Pipeline
  6. Multimodal Fusion – Combine Voice + Image + Text Decision
  7. Simulation in Gazebo / RViz – Virtual Test Environment

พัฒนาโดยใช้ระบบ ROS2 (Developed using ROS2 System)

ROS2 Humble เป็นเวอร์ชันที่เสถียรที่สุดและมีเอกสารตัวอย่าง (case tutorials) มากที่สุดในปัจจุบัน เป็นรุ่นที่ได้รับการสนับสนุนระยะยาว (LTS) และใช้งานอย่างแพร่หลายในสถาบันการศึกษาและงานวิจัย

ROS (Robot Operating System)
เป็นเฟรมเวิร์กที่ออกแบบมาเพื่อแก้ปัญหาด้านการสื่อสารและการทำงานร่วมกันระหว่างโมดูลของหุ่นยนต์ เช่น มอเตอร์ เซนเซอร์ และอัลกอริธึมควบคุม

ROS2 คือรุ่นใหม่ของ ROS ที่พัฒนาต่อจาก ROS1 — มีความสามารถมากขึ้นในด้าน:

  • ความเสถียรของระบบ (Stability)
  • ความปลอดภัยของการสื่อสาร (DDS Middleware)
  • การประมวลผลแบบเรียลไทม์
  • รองรับการทำงานแบบกระจาย (Distributed System)
  • รองรับหลายภาษา เช่น Python, C++, และ AI Libraries

ข้อดีของ ROS2 Humble ที่ใช้ใน ROSMASTER M3 Pro

คุณสมบัติ รายละเอียด
ความเสถียรสูง (High Stability) เหมาะกับระบบหุ่นยนต์ที่ต้องการ uptime ต่อเนื่อง เช่น การสอน/วิจัย
การสื่อสารแบบ DDS ใช้ Data Distribution Service เพื่อให้ node ต่างๆ ติดต่อกันอย่างปลอดภัยและมี latency ต่ำ
รองรับการจำลอง (Simulation) ใช้งานร่วมกับ Gazebo / RViz2 / MoveIt2 ได้เต็มระบบ
อัปเดตระยะยาว (LTS Support) ได้รับการอัปเดตและแพตช์ความปลอดภัยต่อเนื่องจาก Open Robotics
เอกสารและตัวอย่างจำนวนมาก มี Tutorials / Package / Template มากมาย ใช้สอนในมหาวิทยาลัยทั่วโลก

เปรียบเทียบกับรุ่นใกล้เคียง (Comparison Insight)

รุ่น คอนโทรลบอร์ด แขนกล กล้อง จุดเด่นหลัก
M3 Lite Jetson Nano / Pi 4 ไม่มี Depth Camera เล็ก สำหรับสอนเบื้องต้น AI SLAM
M3 Pro Orin Nano / NX / Nano B01 / Pi 5 6 DOF Depth Camera เต็มระบบ รุ่น Top สุด – รองรับ AI + Voice + RAG
M2 Pro Jetson Nano B01 / Pi 4 4 DOF RGB Camera เหมาะกับ AI Vision พื้นฐาน
X3 Pro / M5 Series Orin NX / AGX / Pi 5 6 DOF ยาว + กล้อง คู่ Industrial Research ระดับสูง

Study Learning Resources

รายการ ลิงก์
Tutorial Main Page https://www.yahboom.net/study/ROSMASTER-M3PRO
 GitHub Code & Package ภายในหน้าคู่มือมีลิงก์ ไป ROS2 workspace และ Gazebo model
 Video Demo + Setup มีวิดีโอสอนการประกอบ / Calibration / SLAM / MoveIt บนหน้าเว็บเดียวกัน
 PDF Manual ROSMASTER M3 Pro User Guide – Humble Edition” (ดาวน์โหลดในหน้าเดียวกัน

แนะนำให้เลือกรุ่นที่ใช้บอร์ด Jetson Orin Nano SUPER หรือ Jetson Orin NX SUPER เพื่อให้การทำงานของโมเดล AI ขนาดใหญ่ (Large Model / LLM + Vision) เป็นไปอย่างลื่นไหล และสามารถแสดงศักยภาพของฟังก์ชันขั้นสูงได้ครบถ้วน เช่น การรู้จำภาพ 3D, การสนทนาด้วยเสียง, และการประมวลผลแบบ Multimodal

  • Jeston Orin NANO SUPER-8GB With Display  
  • Jeston Orin NX SUPER-8GB With Display  
  • Jeston Orin NX SUPER-16GB With Display  

เปรียบเทียบบอร์ดที่รองรับ

รุ่นบอร์ด GPU / CUDA Core RAM AI Performance เหมาะสำหรับ หมายเหตุ
Raspberry Pi 5 CPU-only (Broadcom BCM2712) 8 GB ต่ำ การสอน ROS2 พื้นฐาน ไม่เหมาะกับ Vision/LLM
Jetson Nano B01 128 CUDA cores 4 GB 0.5 TFLOPS AI พื้นฐาน, SLAM, Vision มี Lag หากใช้ Voice/LLM
Jetson Orin Nano SUPER 1024 CUDA + 32 Tensor cores 8 GB 40 TOPS AI/SLAM/Voice/3D Vision แนะนำ
Jetson Orin NX SUPER 1024 CUDA + 32 Tensor cores 16 GB 70 TOPS งานวิจัยระดับสูง, RAG, LLM แนะนำที่สุด
  • ถ้าเน้น AI, Voice Interaction, SLAM, Grasping, 3D Vision → ใช้ Orin NX SUPER
  • ถ้าใช้เพื่อ สอน ROS2 / SLAM พื้นฐาน / AI Demo → ใช้ Orin Nano SUPER ก็เพียงพอ

รหัสสินค้า 5 รุ่นย่อย

  1. RB-M3P-PI5-16G-D Controller Raspberry Pi 5 RAM 16GB + Display
  2. RB-M3P-JN-4G-D Controller Jetson Nano B01 RAM 4GB + Display
  3. RB-M3P-ONNS-8G-D Controller Jetson Orin Nano SUPER RAM 8GB + Display
  4. RB-M3P-ONXS-8G-D Controller Jetson Orin NX SUPER RAM 8GB + Display
  5. RB-M3P-ONXS-16G-D Controller Jetson Orin NX SUPER RAM 16GB + Display

Dimension mm

Shipping List

Option Controller

Option Display

ภาพรวมระบบเต็ม

ROSMASTER M3 Pro – สรุปองค์ประกอบฮาร์ดแวร์

🔹 แขนกลหุ่นยนต์ 6 แกน (6DOF Robotic Arm)

แขนกลประกอบด้วยเซอร์โวมอเตอร์อัจฉริยะ 6 ตัว (5 ตัวแรงบิด 15 กิโลกรัม และ 1 ตัวแรงบิด 6 กิโลกรัม)
ให้ความแม่นยำในการทำซ้ำสูงถึง ±0.5 มิลลิเมตร
มีรัศมีการหยิบจับสูงสุด 50 เซนติเมตร
สามารถยกวัตถุที่มีน้ำหนักไม่เกิน 410 กรัม ได้อย่างมั่นคง


🔹 กล้องวัดระยะเชิงลึก DABAI DCW2

วัดระยะได้ไกลถึง 5 เมตร
พื้นที่บอด (Blind Zone) เพียง 0.15 เมตร
มุมมองภาพกว้าง (FOV สูง) เหมาะกับการใช้งานทั้งในอาคารและนอกอาคาร
รองรับการสร้างภาพ 3 มิติ (3D Vision), การหยิบจับด้วยแขนกล และงานด้าน AI Vision


🔹 โมดูลเสียงอัจฉริยะ (AI Large Model Voice Module)

ใช้ชิปควบคุมหลัก CM108B + CT1302
พร้อมไมโครโฟน MEMS ความไวสูงและลำโพงภายในตัว
รองรับการจับเสียงระยะไกล (Far-field), ตัดเสียงสะท้อน, ลดเสียงรบกวน
และสามารถโต้ตอบด้วยเสียงกับระบบ AI ได้แบบเรียลไทม์


🔹 เซนเซอร์เลเซอร์วัดระยะ T-mini Plus LiDAR

ใช้เทคโนโลยี TOF (Time of Flight) ทนแสงสูงถึง 60 klux
สามารถวัดระยะได้ตั้งแต่ 0.05 – 12 เมตร
อัตราการสแกนสูงถึง 4,000 ครั้งต่อวินาที
รองรับการทำแผนที่ (SLAM), การหลบสิ่งกีดขวาง และการนำทางอัตโนมัติทั้งในและนอกอาคาร

🔹 ระบบ AI ขนาดใหญ่ 3 รูปแบบ (Built-in Three AI Large Models)

01. Large Language Model – โมเดลภาษาขนาดใหญ่

ROSMASTER M3 Pro เชื่อมต่อกับแพลตฟอร์มโมเดลภาษาขนาดใหญ่แบบเรียลไทม์ ทำหน้าที่เป็น “สมองหลัก (Super Brain)” ที่สามารถ

  • เข้าใจคำสั่งจากข้อความ (Text Command)
  • สร้างคำตอบอัตโนมัติอย่างยืดหยุ่น
  • ประมวลผลข้อมูลเชิงตรรกะและเนื้อหาทางวิทยาศาสตร์ได้

ตัวอย่างการทำงานของระบบ AI ภาษาขนาดใหญ่:

  • Text Generation: สร้างโค้ดหรือเนื้อหาตามคำสั่ง เช่น “ช่วยเขียนโปรแกรม Line Tracking ด้วย Python”
  • Q&A: ตอบคำถามทั่วไป เช่น “พระอาทิตย์ขึ้นทางทิศไหน”
  • Science Summary: สรุปเนื้อหาทางวิทยาศาสตร์ เช่น “ขั้นตอนการพัฒนา Raspberry Pi”

02. Voice Large Model – โมเดลเสียงอัจฉริยะ

ROSMASTER M3 Pro มาพร้อม โมดูลเสียง AI ขนาดใหญ่ (AI Voice Model Module) และลำโพงในตัว
สามารถแปลงเสียง ↔ ข้อความได้แบบเรียลไทม์
เมื่อต่อกับโมเดล AI จะสามารถ “ฟัง” และ “พูด” ได้เสมือนผู้ช่วยอัจฉริยะจริง

ตัวอย่าง:
เมื่อผู้ใช้พูดว่า “Hi Yahboom, Tell me a story”
ระบบจะตอบกลับด้วยเรื่องเล่าเสียงพูดแบบธรรมชาติ พร้อมเนื้อหาที่ AI สร้างขึ้นเอง


03. Visual Large Model – โมเดลการมองเห็นอัจฉริยะ

ติดตั้ง กล้องตรวจจับเชิงลึก DABAIDCW2 Depth Camera
สามารถเข้าใจและวิเคราะห์ภาพได้แบบเรียลไทม์ โดยใช้เทคโนโลยี AI Vision ขนาดใหญ่

ฟังก์ชันหลัก:

  • วิเคราะห์และระบุวัตถุในภาพอย่างแม่นยำ (Object Recognition)
  • เข้าใจฉากและสภาพแวดล้อม (Scene Understanding)
  • ให้ผลลัพธ์เป็นทั้ง “ข้อความ” และ “เสียง” แบบโต้ตอบ

ตัวอย่าง:
AI จะตรวจจับวัตถุ เช่น ต้นไม้ ลูกฟุตบอล กระต่ายจำลอง เป็ดสีเหลือง นักบินอวกาศ และแบบจำลองอาคาร
พร้อมสรุปเสียงตอบกลับว่า

“I saw tree, cacti, football, architectural model, astronaut, yellow duck, and green plush rabbits…”

การประยุกต์ใช้งานเชิงสร้างสรรค์ของโมเดลการมองเห็นหลายมิติ (Creative Application of Multi-modal Visual Model)

ROSMASTER M3 Pro สามารถรับรู้สภาพแวดล้อมรอบตัวได้อย่างแม่นยำด้วยโครงสร้างฮาร์ดแวร์ประสิทธิภาพสูง
โดยผสานการทำงานของ โมเดล AI ขนาดใหญ่แบบหลายมิติ (Multi-modal Large Model)
และ สถาปัตยกรรมตรรกะสองชั้น (Dual-Model Reasoning Architecture)
ทำให้หุ่นยนต์สามารถ

  • เข้าใจสภาพแวดล้อม
  • วางแผนการทำงานอย่างยืดหยุ่น
  • ประสานงานระหว่าง “คนกับหุ่นยนต์” (Human–Machine Collaboration) ได้อย่างเป็นธรรมชาติและมีประสิทธิภาพมากขึ้น

01. การติดตามด้วยการมองเห็น (Visual Tracking)

ด้วยพลังการประมวลผลจากโมเดลภาพขนาดใหญ่ ROSMASTER M3 Pro
สามารถระบุและติดตามวัตถุเป้าหมายได้แบบเรียลไทม์
แม้อยู่ในสภาพแวดล้อมที่ซับซ้อน

ตัวอย่าง:

“Hi Yahboom, find the yellow duck and track it.”
ระบบจะตรวจพบ “เป็ดสีเหลืองบนบล็อกสีน้ำเงิน” และทำการติดตามทันที


02. การเคลื่อนที่อัตโนมัติ (Autonomous Cruising)

ด้วยความเข้าใจเชิงความหมาย (Semantic Understanding)
หุ่นยนต์สามารถระบุวัตถุ เช่น กรวยจราจร หรือสิ่งกีดขวางในเส้นทาง
พร้อมปรับเส้นทางเคลื่อนที่โดยอัตโนมัติได้

ตัวอย่าง:

“Hi Yahboom, what color is the cone on the ground?”
ระบบตอบ: “Go along at 30° to the right if you encounter an obstacle.”


03. การติดตามด้วยสี (Color Tracking)

โมเดลการมองเห็นของ M3 Pro สามารถวิเคราะห์และติดตามวัตถุจากสีภายในระยะมองเห็น
โดยใช้ อัลกอริทึม KCF + PID เพื่อให้การติดตามมีความแม่นยำสูง

ตัวอย่าง:

“Hi Yahboom, what color is the block in my hand?”
ระบบตอบ: “The block is blue. Tracking the blue target.”

การประยุกต์ใช้งานระบบปัญญาเชิงกายภาพ (Embodied Intelligence Applications)

01. การคัดแยกวัตถุอัจฉริยะ (Embodied Intelligent Sorting)

ROSMASTER M3 Pro สามารถตรวจจับและจำแนกวัตถุภายในขอบเขตการมองเห็นได้อย่างแม่นยำ
พร้อมตัดสินใจเคลื่อนไหวตามคำสั่งเสียงของผู้ใช้ เพื่อจัดเรียงหรือคัดแยกวัตถุโดยอัตโนมัติ

ตัวอย่าง:

“Hi Yahboom, how many colors of wood blocks are there on the table?”
ระบบตอบกลับ “I see wooden blocks in three colors: blue, yellow, and red.”
จากนั้นจะดำเนินการคัดแยกบล็อกสีน้ำเงินและสีแดงใส่ถังตามสีที่กำหนด


02. การติดตามและหยิบจับวัตถุอัจฉริยะ (Embodied Intelligent Tracking & Gripping)

M3 Pro สามารถติดตามวัตถุที่กำลังเคลื่อนที่ได้แบบเรียลไทม์
และใช้แขนกล 6 แกนในการหยิบวัตถุ จากนั้นวางลงในตำแหน่งที่ระบุไว้ตามคำสั่งเสียงของผู้ใช้

ตัวอย่าง:

“Hi Yahboom, grip the yellow duck.”
ระบบตอบกลับ “OK, I’m tracking and gripping.”
จากนั้นจะหยิบวัตถุแล้ววางลงในกล่องสีเขียวอัตโนมัติ


03. การขนย้ายวัตถุอัจฉริยะ (Embodied Intelligent Handling)

M3 Pro สามารถแยกวิเคราะห์คำสั่งเสียงที่ซับซ้อน
และดำเนินการขนย้ายวัตถุในเส้นทางหลายทิศทางได้อย่างแม่นยำ
แสดงให้เห็นถึงความสามารถของ AI เชิงปฏิบัติ (Embodied AI)
ที่ผสานการเข้าใจสภาพแวดล้อมกับการทำงานอัตโนมัติระดับสูง

ตัวอย่าง:

“Hi Yahboom, pick up the wooden block in front, walk ten steps forward, turn left, then walk ten steps forward.”
ระบบตอบกลับ “OK, I’m picking up the wooden block in front.”
และดำเนินการขนย้ายวัตถุตามเส้นทางที่กำหนดได้อย่างถูกต้อง

การนำทางอัจฉริยะและการรับรู้สิ่งแวดล้อม (Embodied Intelligent SLAM Navigation & Environmental Perception)

01. การนำทางอัจฉริยะด้วยระบบหลายจุด (Intelligent Multi-point Navigation)

ROSMASTER M3 Pro สามารถส่งข้อมูลสภาพแวดล้อมแบบเรียลไทม์เข้าสู่ โมเดลการมองเห็น AI ขนาดใหญ่ (Visual Large Model)
เพื่อทำการวิเคราะห์เชิงลึกและวางเส้นทางการเคลื่อนที่แบบไดนามิกตามคำสั่งเสียงของผู้ใช้ได้โดยอัตโนมัติ

ระบบสามารถ

  • เดินทางไปยังตำแหน่งที่กำหนดหนึ่งหรือหลายจุดได้ (Single / Multi-Point)

  • วางแผนเส้นทางอย่างชาญฉลาดตามสถานการณ์จริง

  • ใช้เทคโนโลยี SLAM (Simultaneous Localization and Mapping) เพื่อสร้างแผนที่และระบุตำแหน่งของตนเอง

ตัวอย่าง:

“Hi Yahboom, navigate to Dinosaur Valley, then to the vegetable and fruit garden, and finally return home.”
ระบบจะตอบ “OK, I am going to Dinosaur Valley.”
และเริ่มการนำทางตามลำดับที่กำหนดอย่างแม่นยำ


02. การรับรู้สภาพแวดล้อม (Environmental Perception)

ผ่านการวิเคราะห์ภาพด้วยโมเดลการมองเห็นขนาดใหญ่ ROSMASTER M3 Pro
สามารถเข้าใจตำแหน่งวัตถุและโครงสร้างพื้นที่ในแต่ละโซนของแผนที่ได้อย่างลึกซึ้ง

ตัวอย่าง:

“Hi Yahboom, go to Dinosaur Valley to see what animals are there, then return home.”
ระบบจะตอบ:
“OK, I am heading to Dinosaur Valley.”
“I saw dinosaurs such as Triceratops, Brachiosaurus, and Velociraptor, as well as trees and cactus.”
“OK, I am going home.”

ระบบนี้ช่วยให้หุ่นยนต์สามารถรับรู้พื้นที่จำลองเช่น School, Home, Dinosaur Valley, Fruit & Vegetable Garden
และเคลื่อนที่โต้ตอบกับผู้ใช้อย่างเป็นธรรมชาติ — สาธิตการทำงานของ AI หุ่นยนต์ระดับสูงด้าน การรับรู้และนำทางเชิงกายภาพ (Embodied SLAM-AI Integration)

การนำทางอัจฉริยะและการรับรู้สิ่งแวดล้อม (Embodied Intelligent SLAM Navigation & Environmental Perception)

01. ระบบ AI ขนาดใหญ่ + การนำทางด้วยแผนที่ SLAM (AI Large Model + SLAM Map Navigation & Transportation)

ROSMASTER M3 Pro ผสานเทคโนโลยี AI ขนาดใหญ่แบบหลายมิติ (Multimodal Large Model)
เข้ากับระบบนำทางแบบ SLAM (Simultaneous Localization and Mapping)
เพื่อให้หุ่นยนต์สามารถเข้าใจคำสั่งเสียงของผู้ใช้และเคลื่อนที่ระหว่างหลายจุด (Multi-point Navigation) ได้อย่างชาญฉลาด

เมื่อถึงตำแหน่งที่กำหนด หุ่นยนต์จะสามารถ

  • วิเคราะห์สภาพแวดล้อมและสิ่งของรอบตัวผ่านโมเดลภาพ (Visual Model)
  • ใช้แขนกล 6 แกน (6-DOF Arm) จัดการวัตถุเป้าหมาย เช่น การหยิบและขนย้าย
  • ปรับเปลี่ยนการทำงานได้ตามบริบทจริงของสภาพแวดล้อม

ตัวอย่าง:

“Hi Yahboom, I want to go to school to play football.”
ระบบตอบ: “Okay, I’m on the way to school.”
หลังจากนั้น: “I have arrived at the fruit and vegetable garden and am looking for strawberries.”

แสดงให้เห็นถึงการทำงานร่วมกันของ AI + SLAM + Manipulation อย่างสมบูรณ์ในระดับปฏิบัติจริง


02. การเข้าใจเจตนาและการตอบสนองตามบริบท (Large Model Intention Understanding & Context-aware Response)

ด้วยการขยายฐานความรู้แบบ RAG Knowledge Base, ROSMASTER M3 Pro
สามารถวิเคราะห์ “เจตนาของผู้ใช้ (User Intention)” และ “บริบทของสภาพแวดล้อม (Context Analysis)”
เพื่อวางแผนการทำงานด้วยตนเองโดยไม่ต้องรอคำสั่งละเอียดจากผู้ใช้

ตัวอย่าง:

ผู้ใช้พูดว่า: “Hi Yahboom, I found that the football was missing when I got home.”
ระบบตอบกลับ: “OK, I’m going to school to find the football.”
หรือเมื่อผู้ใช้พูดว่า: “I’m thirsty.”
ระบบตอบ: “OK, I’m going to the kitchen to find mineral water for you.”

คุณสมบัตินี้แสดงถึงระดับความเข้าใจเชิงบริบทของหุ่นยนต์ (Context-aware AI)
ที่สามารถคาดการณ์ความต้องการของผู้ใช้ และตัดสินใจวางแผนการทำงานอย่างอิสระในสภาพแวดล้อมจำลอง

นวัตกรรมเทคโนโลยีปัญญาเชิงกายภาพ (Embodied Intelligence Technology Innovation)

Innovation 1 – สถาปัตยกรรมการให้เหตุผลแบบสองชั้น (Dual-Model Reasoning Architecture)

ROSMASTER M3 Pro ใช้โครงสร้างการประมวลผลแบบ สองโมเดลร่วม (Dual-Model System)
ประกอบด้วย

  • Decision Layer (ชั้นการตัดสินใจ) – ทำหน้าที่เข้าใจคำสั่งของผู้ใช้และวางแผนการทำงานผ่าน Large Language Model (LLM)
  • Execution Layer (ชั้นการปฏิบัติ) – ใช้ Visual Multi-Modal Model เพื่อสร้างรายการการกระทำจริงและดำเนินการในสภาพแวดล้อมจริง

กระบวนการนี้มี การให้เหตุผลแบบ Feedback Loop แบบไดนามิก (Dynamic Feedback Reasoning)
ที่ปรับปรุงผลลัพธ์อย่างต่อเนื่องจนกว่างานจะสำเร็จ


Innovation 2 – การให้เหตุผลแบบไดนามิก (Dynamic Feedback Reasoning)

ระบบ Feedback เชิงไดนามิกจะใช้ผลลัพธ์ที่ได้จากการทำงานแต่ละขั้น เพื่อปรับเปลี่ยนการกระทำถัดไปแบบเรียลไทม์
เช่น เมื่อตรวจพบลูกบอลสีแดง (Red Ball Found) ระบบจะอัปเดตการตัดสินใจใหม่อัตโนมัติ

เทคโนโลยีนี้ช่วยให้หุ่นยนต์

  • ปรับตัวตามสภาพแวดล้อมจริง
  • ลดความผิดพลาดระหว่างภารกิจ
  • เพิ่มความแม่นยำและอัตราความสำเร็จของงาน

Innovation 3 – การเสริมประสิทธิภาพการดึงข้อมูลด้วย RAG (Large Model RAG Retrieval Enhancement)

RAG (Retrieval-Augmented Generation) คือสถาปัตยกรรมที่ผสาน “ระบบค้นคืนข้อมูล” เข้ากับ “ระบบสร้างผลลัพธ์”
ช่วยลดปัญหา “ข้อมูลหลอน (Hallucination)” ที่มักเกิดจากโมเดล AI ขนาดใหญ่

ใน ROSMASTER M3 Pro, ฐานความรู้ RAG ถูกตั้งค่ามาพร้อมข้อมูลจากโรงงาน
เช่น ตัวอย่างการฝึก (Training Samples) และคลังคำสั่งมาตรฐาน
พร้อมรองรับการปรับแต่งเฉพาะ (Customized Knowledge)
เพื่อให้หุ่นยนต์เรียนรู้บริบทและตอบสนองได้ตรงความต้องการของผู้ใช้มากขึ้น


Innovation 4 – การสนับสนุนการสนทนาแบบขัดจังหวะได้ (Support Free Conversation Interruption)

ระบบสนทนาแบบต่อเนื่อง (Continuous Dialogue) ของ M3 Pro
สามารถ “ขัดจังหวะ” หรือ “เปลี่ยนคำสั่งกลางทาง” ได้แบบเรียลไทม์

ตัวอย่าง:

“Hi Yahboom, go to the fruit and vegetable garden to get strawberries.”
(ระหว่างเดินทาง) ผู้ใช้พูดว่า “Wait, I said it wrong — go get the football.”
ระบบจะตอบ “No problem, I’m going to school now.”
หรือเมื่อพูดว่า “I changed my mind, go home.”
ระบบจะตอบ “OK, I’ll run home right away.”

คุณสมบัตินี้ช่วยเพิ่มความยืดหยุ่นและความสะดวกในการสื่อสารกับหุ่นยนต์ในสถานการณ์จริง

รีวิว

ยังไม่มีบทวิจารณ์

เฉพาะลูกค้าที่เข้าสู่ระบบ และเคยซื้อสินค้าชิ้นนี้แล้วเท่านั้น ที่เขียนบทวิจารณ์ได้