مدلهای هوش مصنوعی و کشف عملکرد مغز در پردازش زبان
علمي
بزرگنمايي:
کرمان رصد - ایسنا /مطالعهای جدید نشان میدهد که مدلهای هوش مصنوعی میتوانند فعالیت مغزی را پیشبینی و به درک بهتر پردازش زبان در مغز کمک کنند.
یک مدل هوش مصنوعی که بر اساس دهها ساعت مکالمه در دنیای واقعی آموزش دیده است، بهطور دقیق فعالیت مغزی انسان را پیشبینی میکند و نشان میدهد که ویژگیهای ساختار زبان بدون نیاز به برنامهریزی صریح ظاهر میشوند. دانشمندان با استفاده از هوش مصنوعی (AI) فعالیت پیچیده مغز را که در طول مکالمات روزمره رخ میدهد، کشف کردهاند.
این ابزار میتواند دیدگاههای جدیدی در مورد علوم عصبی زبان ارائه دهد و روزی به بهبود فناوریهایی که برای شناسایی گفتار یا کمک به افراد در برقراری ارتباط طراحی شدهاند، کمک کند.
براساس نحوهای که یک مدل هوش مصنوعی صدا را به متن تبدیل میکند، محققان پشت این مطالعه توانستند فعالیت مغزی را که در طول مکالمه رخ میدهد، با دقت بیشتری نسبت به مدلهای سنتی که ویژگیهای خاصی از ساختار زبان مانند آواها (صداهای سادهای که کلمات را تشکیل میدهند) و اجزای گفتار (مانند اسامی، افعال و صفتها) رمزگذاری میکنند، ترسیم کنند.
مدل Whisper که در این مطالعه استفاده شد، به جای رمزگذاری ویژگیهای خاص زبان، فایلهای صوتی و رونوشتهای متنی آنها را دریافت میکند. این دادهها بهعنوان مجموعه آموزشی برای ترسیم ارتباط بین صدا و متن استفاده میشوند. سپس این مدل با استفاده از آمارهای مربوط به این ارتباط، «یاد میگیرد» که متن را از فایلهای صوتی جدیدی که قبلاً نشنیده است، پیشبینی کند، بنابراین مدل Whisper صرفاً بر اساس این آمارها کار میکند، بدون اینکه ویژگیهای ساختاری زبان در تنظیمات اولیه آن رمزگذاری شده باشند. با این حال، دانشمندان در این مطالعه نشان دادند که این ساختارها پس از آموزش مدل همچنان در آن ظاهر شدند.
این مطالعه روشن میکند که مدلهای هوش مصنوعی از این نوع که بهعنوان مدلهای زبانی بزرگ (LLM) شناخته میشوند، چگونه کار میکنند، اما تیم تحقیقاتی بیشتر به بینشهایی علاقهمند است که این مطالعه در مورد زبان و شناخت انسان ارائه میدهد. شناسایی شباهتهای بین نحوه توسعه تواناییهای پردازش زبان در این مدل و چگونگی رشد این مهارتها در انسانها ممکن است برای طراحی دستگاههایی که به برقراری ارتباط افراد کمک میکنند، مفید باشد.
این مطالعه که در هفتم مارس در مجله Nature Human Behaviour منتشر شد، شامل چهار شرکتکننده با اپی لپسی بود که قبلاً تحت جراحی برای نصب الکترودهای نظارتی مغزی به دلایل بالینی قرار گرفته بودند. با کسب اجازه، محققان تمام مکالمات بیماران را در طول مدت اقامتشان در بیمارستان که از چند روز تا یک هفته متغیر بود، ضبط کردند. در مجموع، بیش از 100 ساعت صدا ضبط شد.
هر یک از شرکتکنندگان بین 104 تا 255 الکترود نصب شده داشتند تا فعالیت مغزی آنها را نظارت کنند.
گلدستین گفت: «بیشتر مطالعاتی که از ضبط مکالمات استفاده میکنند، در آزمایشگاهی تحت شرایط کاملاً کنترل شده و معمولاً در مدت زمان حدود یک ساعت انجام میشود. اگرچه این محیط کنترلشده میتواند برای جدا کردن نقش متغیرهای مختلف مفید باشد، گلدستین و همکارانش میخواستند فعالیت مغزی و رفتار انسانی را در دنیای واقعی بررسی کنند.»
محققان در این پژوهش دریافتند که برخی مناطق مغزی تمایل دارند با برخی از وظایف همبستگی داشته باشند. برای مثال، نواحی که به پردازش صدا معروف هستند، مانند شیار زمانی فوقانی، هنگام پردازش اطلاعات شنوایی فعالیت بیشتری نشان دادند و نواحی که در تفکر سطح بالاتر دخیل هستند، مانند شیار پیشانی تحتانی، برای درک معنی زبان فعالتر بودند.
آنها توانستند مشاهده کنند که این نواحی بهصورت پیدرپی فعال میشوند. برای مثال، منطقهای که بیشترین مسئولیت را در شنیدن کلمات داشت قبل از منطقهای که مسئول تفسیر آنها بود، فعال شد. با این حال، محققان به وضوح مشاهده کردند که نواحی در حین فعالیتهایی که بهطور معمول به تخصص آنها شناخته نمیشدند، فعال میشوند.
به گزارش ایسنا و به نقل از لایوساینس، لئونارد شیلباخ، رئیس گروه تحقیقاتی در مرکز علوم عصبی مونیخ در آلمان که در این کار دخالت نداشته است، در ایمیلی به Live Science گفت: «این تحقیق یک مطالعه پیشگامانه است، زیرا ارتباط بین عملکرد مدل محاسباتی تبدیل صوت به گفتار به زبان و عملکرد مغز را نشان میدهد. اگر ما عملکرد درونی نورونهای مصنوعی و زیستی و شباهتهای آنها را درک کنیم، ممکن است بتوانیم آزمایشها و شبیهسازیهایی را انجام دهیم که در مغز بیولوژیکیمان انجام آنها غیرممکن باشد.»
-
دوشنبه ۲۷ اسفند ۱۴۰۳ - ۱۶:۳۲:۰۸
-
۱۰ بازديد
-

-
کرمان رصد
لینک کوتاه:
https://www.kermanrasad.ir/Fa/News/707130/