เอไอเรียนรู้การพูดเหมือนเด็กทารก

(SeaPRwire) –   ลองนึกภาพการได้เห็นโลกผ่านทางสายตาของเด็กอายุหกเดือน คุณไม่มีคำพูดที่จะอธิบายอะไรได้เลย คุณจะเริ่มเข้าใจภาษาได้อย่างไรเมื่อเสียงที่เปล่งออกมาจากปากของผู้คนรอบตัวคุณมีความหมายที่เป็นไปได้หลายนัย 

คำถามนี้ทำให้เหล่านักวิทยาศาสตร์หลายคนตั้งสมมติฐานว่ามนุษย์ต้องมีความสามารถทางภาษาบางอย่างที่มีมาตั้งแต่แรกเกิดเพื่อช่วยเราเริ่มต้นในการเรียนรู้ภาษา แต่การวิจัยที่ตีพิมพ์ในวารสาร Science เมื่อสัปดาห์นี้พบว่าระบบ AI ที่ค่อนข้างง่ายซึ่งได้รับข้อมูลวิดีโอจากมุมมองของทารกเริ่มเรียนรู้คำศัพท์

บทความนี้สร้างจากภาพวิดีโอที่ถ่ายทำจากกล้องที่ติดอยู่บนหมวกกันน็อกซึ่งสวมใส่โดยทารกชาวออสเตรเลียในช่วงสิบแปดเดือน ตั้งแต่อายุหกถึงยี่สิบห้าเดือน ผู้ช่วยวิจัยได้อย่างยากลำบากในการตรวจสอบและอธิบายคำพูดประมาณ 37,5000 คำ เช่น “หนูเห็นตัวต่อบล็อกรูปสามเหลี่ยม” ที่พูดโดยผู้ปกครองขณะที่ทารกกำลังเล่นกับชุดบล็อกของเล่น จากวิดีโอยาว 61 ชั่วโมง คลิปที่แบ่งปันกับ TIME แสดงให้เห็นทารกที่คลำหาชุดของเล่นก่อนที่จะหันไปสนใจแมวตัวหนึ่งที่ไม่ประทับใจ

นักวิจัยจากศูนย์วิทยาศาสตร์ข้อมูลและภาควิชาจิตวิทยาของ New York University ได้ป้อนชุดข้อมูลนี้ลงในระบบ AI หลายรูปแบบ ซึ่งสามารถรับทั้งข้อความและรูปภาพ พวกเขาพบว่าโมเดล AI สามารถระบุวัตถุต่างๆ ได้มากมาย ทั้งในการทดสอบโดยใช้ข้อมูลจากกล้องที่ติดที่ศีรษะและในการทดสอบโดยใช้ชุดข้อมูลของภาพวัตถุต่างๆ ในอุดมคติ แม้ว่าความแม่นยำจะค่อนข้างจำกัด

ระบบ AI จะตั้งชื่อวัตถุที่เห็นบ่อยกว่านั้นได้ดีกว่า รวมถึงแอปเปิ้ล (ซึ่งมีอยู่ทั่วไปในหนังสือสำหรับเด็ก) และเปลเด็ก นอกจากนั้นยังสามารถแยกแยะวัตถุที่ไม่ได้บดบังในภาพจากกล้องที่ติดที่ศีรษะได้ดีกว่าอีกด้วย Wai Keen Vong หนึ่งในผู้เขียนบทความกล่าวว่า AI ไม่เก่งเรื่องการจดจำมีดเป็นพิเศษ

นักจิตวิทยาและนักภาษาศาสตร์บางคนเชื่อว่าเด็กจะไม่สามารถสร้างความสัมพันธ์ระหว่างคำศัพท์และวัตถุได้หากไม่มีความสามารถทางภาษาแต่กำเนิด แต่ Wai Keen Vong กล่าวว่าข้อเท็จจริงที่ว่าโมเดล AI ซึ่งค่อนข้างง่ายสามารถเริ่มเรียนรู้ความสัมพันธ์ของคำศัพท์ได้จากชุดข้อมูลขนาดเล็กเช่นนี้ แสดงให้เห็นว่ามุมมองนี้เป็นการท้าทาย

อย่างไรก็ตาม สิ่งสำคัญคือต้องทราบว่าภาพที่กล้องบันทึกไว้จะจับภาพทารกที่กำลังโต้ตอบกับโลก และผู้ปกครองที่ตอบโต้กับทารก นั่นหมายความว่าโมเดล AI นั้นกำลัง “เก็บเกี่ยวสิ่งที่เด็กคนนั้นรู้” ทำให้มีข้อดีในการพัฒนากลุ่มคำศัพท์ Andrei Barbu นักวิจัยวิทยาศาสตร์ที่ห้องปฏิบัติการวิทยาศาสตร์คอมพิวเตอร์และปัญญาประดิษฐ์ของสถาบันเทคโนโลยีแห่งแมสซาชูเซตส์กล่าวว่า “หากคุณนำโมเดลนี้ไปใช้กับหุ่นยนต์ แล้วคุณก็สั่งให้มันทำงานนาน 61 ชั่วโมง คุณจะไม่ได้ข้อมูลเช่นเดียวกับที่พวกเขาทำที่นี่ ซึ่งจะเป็นประโยชน์สำหรับการอัปเดตโมเดลเช่นนี้”

นับตั้งแต่ที่นักวิจัย NYU เขียนผลการวิจัยขึ้น พวกเขาได้ถอดความข้อมูลเพิ่มเติมเป็นสี่เท่าจากภาพวิดีโอจากกล้องที่ติดที่ศีรษะ ซึ่งพวกเขาตั้งใจจะป้อนเข้าไปในโมเดลของตน Wai Keen Vong กล่าวว่า พวกเขาหวังที่จะตรวจสอบว่าโมเดล AI เรียนรู้ได้มากขึ้นแค่ไหนหากได้รับข้อมูลเพิ่มเติม นอกจากนี้ พวกเขายังหวังที่จะทดสอบว่าโมเดลสามารถเริ่มเรียนรู้คำศัพท์ที่ท้าทายมากขึ้นและพฤติกรรมทางภาษาที่มักจะพัฒนาในภายหลังได้หรือไม่

การทดลองเหล่านี้อาจช่วยให้เข้าใจเพิ่มเติมเกี่ยวกับวิธีที่ทารกเรียนรู้ที่จะพูด และยังช่วยให้นักวิจัยเข้าใจถึงความแตกต่างระหว่างมนุษย์และปัญญาประดิษฐ์ได้อีกด้วย Wai Keen Vong กล่าวว่า “มีอะไรให้เรียนรู้อีกมากมายจากการศึกษาว่ามนุษย์เรียนรู้ภาษาได้อย่างไรและเราทำได้อย่างมีประสิทธิภาพเพียงใดเมื่อเทียบกับเครื่องจักรในปัจจุบัน”

บทความนี้ให้บริการโดยผู้ให้บริการเนื้อหาภายนอก SeaPRwire (https://www.seaprwire.com/) ไม่ได้ให้การรับประกันหรือแถลงการณ์ใดๆ ที่เกี่ยวข้องกับบทความนี้

หมวดหมู่: ข่าวสําคัญ ข่าวประจําวัน

SeaPRwire จัดส่งข่าวประชาสัมพันธ์สดให้กับบริษัทและสถาบัน โดยมียอดการเข้าถึงสื่อกว่า 6,500 แห่ง 86,000 บรรณาธิการและนักข่าว และเดสก์ท็อปอาชีพ 3.5 ล้านเครื่องทั่ว 90 ประเทศ SeaPRwire รองรับการเผยแพร่ข่าวประชาสัมพันธ์เป็นภาษาอังกฤษ เกาหลี ญี่ปุ่น อาหรับ จีนตัวย่อ จีนตัวเต็ม เวียดนาม ไทย อินโดนีเซีย มาเลเซีย เยอรมัน รัสเซีย ฝรั่งเศส สเปน โปรตุเกส และภาษาอื่นๆ 

Next Post

ทราบเกี่ยวกับการประท้วงของเกษตรกรในยุโรป

เสาร์ ก.พ. 3 , 2024
(SeaPRwire) –   Morgan Ody เกษตรกรชาวฝรั่งเศสวัย 44 ปี จากเขตภูเขาของ Brittany ออกเดินทางโดยรถไฟ 12 ชั่วโมงผ่านกรุงปารีส ก่อนที่เธอจะมาถึงเมืองหลวงของเบลเยี่ยม Brussels ในที่สุด ที่นั่น เธอได้เข้าร่วมกับเกษตรกรหลายหมื่นคนที่ออกไปตามท้องถนนในวันพฤหัสบดี เพื่อเรียกร้องให้ผู้นำสหภาพยุโรปทำอะไรสัก […]