به گزارش سایک نیوز به نقل از ایرنا، پژوهشگران دانشگاه نیوکاسل مکانیزمی را شناسایی کردند که مغز با استفاده از آن میتواند خلاءهای موجود در زمان پردازش داده های صوتی به دست آمده از قوه شنوایی را پر کند.
در این پژوهش مجموعهای از صداها به صورت یک زبان مصنوعی و با الگوهای گرامری خاص برای میمونها و انسانهای داوطلب پخش شد و مطابق انتظار هر دو گونه به سرعت توانستند قواعد گرامری این زبان مصنوعی را فرا بگیرند. پس از دوره آموزشی اولیه، صداهای بیشتری برای آنها پخش شد که در برخی قواعد گرامری مذکور رعایت نشده بود.
پژوهشگران برای ثبت واکنش نورونها در زمان پردازش اطلاعات صوتی، از میکروالکترودهایی استفاده کردند که برخی روی تعداد محدودی از نورونها و برخی دیگر روی تمام نورونهای مغز متمرکز بودند.
در این پژوهش مشخص شد فعالیت مغز هر دو گونه میمون و انسان برای تشخیص صداهای پخش شده مشابه است و تنها بر اساس ترکیب صداها تغییر میکند. البته صداهای مورد استفاده در این مطالعه متعلق به یک زبان واقعی نبودند و برای اطمینان از عملکرد مشابه مغز در تشخیص زبانهای واقعی به پژوهش های بیشتری نیاز است.
این پژوهش دانش ما را در زمینه تحول زبان و چگونگی پردازش سخنان در مغز انسان توسعه میدهد و زمینه را برای ساخت ابزارهای تشخیصی جدید برای شناسایی بیماریها و اختلالات عصبی مانند اسکیزوفرنی و بیشفعالی فراهم میکند.
گزارش کامل این تحقیقات در نشریه PLoS Biology منتشر شده است.
بیشتر بخوانید: