Chulalongkorn University Theses and Dissertations (Chula ETD)

การรวมโหนดในนิวรอลเน็ตเวิร์กหลายโครงข่ายบนชุดข้อมูลขนาดใหญ่

Other Title (Parallel Title in Other Language of ETD)

COMBINING NODES IN MULTIPLE NEURAL NETWORKS ON LARGE DATASETS

Year (A.D.)

2013

Document Type

Thesis

First Advisor

สุกรี สินธุภิญโญ

Faculty/College

Faculty of Engineering (คณะวิศวกรรมศาสตร์)

Degree Name

วิทยาศาสตรมหาบัณฑิต

Degree Level

ปริญญาโท

Degree Discipline

วิทยาศาสตร์คอมพิวเตอร์

DOI

10.58837/CHULA.THE.2013.1046

Abstract

การสอนนิวรอลเน็ตเวิร์กด้วยชุดข้อมูลขนาดใหญ่จำเป็นต้องใช้เวลามาก และเทคนิคที่นิยมใช้ในลดเวลาในการสอนลงเช่นการลดขนาดชุดข้อมูลให้มีขนาดเล็กลงก่อนนำไปสอนนั้น ไม่สามารถรับประกันได้ว่านิวรอลเน็ตเวิร์กที่ได้รับการสอนนั้นจะมีประสิทธิภาพเท่ากับนิวรอลเน็ตเวิร์กที่สอนด้วยชุดข้อมูลขนาดใหญ่โดยตรงหรือไม่ ในการวิจัยนี้จะนำเสนอเทคนิคในการลดเวลาในการสอนนิวรอลเน็ตเวิร์กบนชุดข้อมูลขนาดใหญ่ลงด้วยการแบ่งชุดข้อมูลขนาดใหญ่ออกเป็นชุดข้อมูลขนาดเล็กหลายชุด จากนั้นนำชุดข้อมูลย่อยเหล่านั้นไปสอนนิวรอลเน็ตเวิร์กที่มีโครงสร้างคล้ายกันหลายโครงข่าย จากนั้นจึงนำองค์ความรู้ในนิวรอลเน็ตเวิร์กเหล่านั้นมารวมกันอีกครั้ง จากผลการทดลองแสดงให้เห็นว่าเทคนิคนี้สามารถลดเวลาที่ใช้ในการสอนนิวรอลเน็ตเวิร์กลงได้อย่างมาก โดยที่ประสิทธิภาพยังคงเทียบเท่ากับนิวรอลเน็ตเวิร์กที่สอนด้วยชุดข้อมูลขนาดใหญ่ทั้งชุด

Other Abstract (Other language abstract of ETD)

Training a neural network on large dataset needs a long training time. And a technique to reduce a training time by resampling dataset cannot guarantee a neural network’s performance. In this research, we propose a technique to reduce a training time using multiple networks. Our approach divides a large dataset into n subsets. We use those subsets to train multiple same-structure neural networks. Finally, we combine knowledge in multiple neural networks into one network. Results from experiments show that our technique can reduce a training time and preserve performance as a single network trained by the whole dataset.

Share

COinS