Các nhà khoa học thần kinh của MIT đã phát hiện ra rằng mạng lưới thần kinh sâu, mặc dù có khả năng xác định các cách trình bày khác nhau về hình ảnh và âm thanh, nhưng thường nhầm lẫn nhận ra các kích thích vô nghĩa là các vật thể hoặc từ ngữ quen thuộc, cho thấy rằng các mô hình này phát triển những “bất biến” độc đáo, đặc trưng không giống như nhận thức của con người. Nghiên cứu cũng tiết lộ rằng việc đào tạo đối nghịch có thể cải thiện một chút mô hình nhận dạng của mô hình, gợi ý một cách tiếp cận mới để đánh giá và nâng cao các mô hình tính toán về nhận thức giác quan. Chú thích: Các nhà khoa học thần kinh của MIT đã phát hiện ra rằng các mô hình tính toán về thính giác và thị giác có thể xây dựng nên những “bất biến” đặc trưng của riêng chúng - nghĩa là chúng phản ứng theo cùng một cách với các kích thích có những đặc điểm rất khác nhau. Tín dụng: Tin tức MIT Khi các mạng thần kinh này được yêu cầu tạo ra một hình ảnh hoặc một từ mà chúng sẽ xếp vào cùng danh mục với một đầu vào cụ thể, chẳng hạn như hình ảnh một con gấu, hầu hết những gì chúng tạo ra đều không thể nhận ra đối với những người quan sát con người. Bên phải là ví dụ về mô hình được phân loại là “gấu”. Tín dụng: Các nhà nghiên cứu của MIT
MIT neuroscientists discovered that deep neural networks, while adept at identifying varied presentations of images and sounds, often mistakenly recognize nonsensical stimuli as familiar objects or words, indicating that these models develop unique, idiosyncratic “invariances” unlike human perception. The study also revealed that adversarial training could slightly improve the models’ recognition patterns, suggesting a new approach to evaluating and enhancing computational models of sensory perception. Caption:MIT neuroscientists have found that computational models of hearing and vision can build up their own idiosyncratic “invariances” — meaning that they respond the same way to stimuli with very different features. Credit: MIT News When these neural networks were asked to generate an image or a word that they would put in the same category as a specific input, such as a picture of a bear, most of what they produced was unrecognizable to human observers. On the right is an example of what the model categorized as “bear.” Credit: MIT researchers
SciTechDaily SciTechDaily 326 ngày