Məlumat

Bir neyron növbəti neyronlardan hansına siqnal ötürəcəyini necə bilir

Bir neyron növbəti neyronlardan hansına siqnal ötürəcəyini necə bilir


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Beyində neyroşəbəkələrin necə qurulduğuna nəzər salsaq, burada bir neçə faktdan sonra bəzi suallar var:

  1. Neyron siqnalı öz dendritləri vasitəsilə qəbul edir və onu aksonun sonundakı terminala ötürür.
  2. Bir neyronun digər neyronlarla 1000-ə qədər əlaqəsi ola bilər.

Anladığım kimi, dendritlər bir neçə neyronla birləşdirilə bilər, deməli, haqqında danışdığımız neyron bir çox hüceyrədən siqnal qəbul edə bilər. İndi suallar:

  1. Aksonlardakı terminallar yalnız bir və ya bir neçə neyronla birləşdirilə bilər?
  2. Əgər akson terminalları çoxsaylı neyronlara qoşula bilirsə, siqnalı ötürən neyron növbəti neyronlardan hansına siqnal ötürəcəyini necə bilir? Hamısına birdən keçirmi?
  3. Aksonun terminalı yalnız bir başqa neyronla (tək akson neyronları üçün) birləşdirilə bilərsə, iki aksonlu neyronlar necə işləyir? Siqnalın növbəti hansı aksona ötürüləcəyini necə bilirlər?

Siqnal göndərən neyron bilmir məlumatı hansı neyrona göndərmək lazımdır. Siqnal qəbul edən neyronların işi siqnalla aktivləşmə növbəsinin onların olub olmadığını müəyyən etməkdir.

Bu, bir protein tərəfindən idarə olunur. Neyronun nə qədər tez-tez istifadə edilməsindən asılı olaraq, dendritlərin səthində bir sıra kanallar əmələ gəlir. Aktivləşmə, səthdəki kanalların sayından asılı olaraq hüceyrədə mövcud olan zülalın optimal səviyyəsində baş verir... Hüceyrə hər dəfə siqnal aldıqda, bu zülalın bir hissəsi yaradılır.

Birincisi, əksər kanalları olan neyronlar aktivləşir, lakin orqanizm istədiyi yaddaşı əldə etməzsə, əvvəlki neyron daha çox siqnal göndərməyə davam edəcək. Sonra 1 nömrəli neyron qəbulu aktivləşməni dayandırır (çünki pik konsentrasiya keçib) və növbətisi başlayır. Bu, bütün neyronlar üçün davam edir.

Sadə dillə desək, info-1-dən info-2-yə qədər, info-2, info-1 ilə ən çox əlaqəli olan fikirlər sırasına görə seçilir.


Neyron növbəti neyronlardan hansına siqnal ötürəcəyini necə bilir - Biologiya

Sinir sistemi tərəfindən yerinə yetirilən bütün funksiyalar - sadə motor refleksindən tutmuş yaddaş və ya qərar qəbul etmək kimi daha inkişaf etmiş funksiyalara qədər - neyronların bir-biri ilə əlaqə saxlamasını tələb edir. İnsanlar ünsiyyət qurmaq üçün sözlərdən və bədən dilindən istifadə edərkən, neyronlar elektrik və kimyəvi siqnallardan istifadə edirlər. Komitədəki bir insan kimi, bir neyron da mesajı digər neyronlara göndərmək üçün “qərar verməzdən” əvvəl bir çox digər neyronlardan mesaj alır və sintez edir.

Öyrənmə Məqsədləri

  • İstirahət membran potensialının əsasını təsvir edin
  • Fəaliyyət potensialının mərhələlərini və fəaliyyət potensialının necə yayıldığını izah edin
  • Kimyəvi və elektrik sinapslarının oxşar və fərqli cəhətlərini izah edin
  • Siqnal toplama prosesini təsvir edin
  • Sinaptik plastisiyada iştirak edən prosesləri müzakirə edin

Neyronlar necə bilirlər?

Patricia Smith Churchland UC prezidentinin fəlsəfə professoru və Kaliforniya Universitetində, San Dieqoda fəlsəfə kafedrasının sədri və Salk İnstitutunda köməkçi professordur. O, Amerika Fəlsəfə Assosiasiyasının və Fəlsəfə və Psixologiya Cəmiyyətinin keçmiş prezidentidir. Onun son kitabları Brain-Wise: Neyrofəlsəfədə Tədqiqatlar (2002) və Əksinə: Critical Essays, 1987–1997 (Paul Çörçlend ilə, 1998).

Mənim bildiyim hər şey neyronlarımdan - beynimdəki hüceyrələrdən asılıdır. 1 Daha dəqiq desək, mənim bildiklərim trilyon neyronlarım arasında əlaqələrin xüsusi konfiqurasiyasından, əlaqəli neyronlar arasındakı neyrokimyəvi qarşılıqlı təsirlərdən və müxtəlif neyron növlərinin cavab portfelindən asılıdır. Məni edən bütün bunlardır mən.

Bildiyim şeylərin çeşidi həyət satışında olan əşyaların çeşidi qədər müxtəlifdir. Bəziləri necə, bəziləri bunu, bəziləri hər ikisini bir az, bəziləri isə heç də tam deyil. Bəziləri keçici, bəziləri isə davamlıdır. Bəzilərini, məsələn, təkərin dəyişdirilməsi ilə bağlı təlimatları, bəzilərini, məsələn, məntiqi arqumenti necə qurmağım kimi ifadə edə bilmirəm.

Bəzi öyrənmə şüurlu, bəziləri isə yox. Bəzi şeyləri öyrənmək üçün, məsələn, velosiped sürmək üçün, əksinə, dəfələrlə cəhd etməliyəm, əgər son dəfə baş verəndə məni qusdurdularsa, istiridyə yeməkdən qaçmağı öyrənməliyəm. Təkərin necə dəyişdiriləcəyini bilmək mədəni əsərlərdən asılıdır, amma əl çalmağı bilmək deyil.

neyronlar hər şeyin altındadır. Necə oldu ki, biz bilirik hər şey?

Canlıların tarixinin əvvəllərində təkamül, sinir sistemləri keçmiş korrelyasiyalara əsaslanaraq proqnozlar verə bilən heyvanların əldə etdiyi üstünlüklər üzərində büdrədi. Gələnləri qəbul etməli olan bitkilərdən fərqli olaraq, heyvanlar hərəkətvericidir və öyrənə bilən beyin qida, yoldaş və sığınacaq tapmaqda və təhlükələrdən qaçmaqda rəqabət üstünlüyü verir. Sinir sistemləri proqnozlaşdırma xidmətində öz yerini qazanır və bu məqsədlə xəritəni tərtib edir mənə aid dünyanın hissələri – onun məkan münasibətləri, sosial münasibətləri, təhlükələri və s. Və təbii ki, beyinlər öz dünyalarını müxtəlif mürəkkəblik dərəcələrində və yaşadıqları orqanizmlərin ehtiyaclarına, avadanlıqlarına və həyat tərzinə nisbətdə xəritələşdirirlər. 2

Beləliklə, insanlar, itlər və qurbağalar eyni gölməçəni tamamilə fərqli şəkildə təmsil edəcəklər. İnsan, məsələn, gölməçənin su mənbəyi, suyun içmə qabiliyyəti və ya suvarma potensialı ilə maraqlana bilər. Köpək sərin üzmək və yaxşı içki içmək, qurbağa isə yumurta qoymaq, milçək tapmaq, günəşdə isinmək və ya gizlənmək üçün yaxşı yerdə maraqlı ola bilər.

Biliyin neyroelminin əsas problemləri bunlardır: Sinir toxumasındakı struktur tənzimləmələr biliyi necə təcəssüm etdirir (nümayişlər problemi)? Heyvanın təcrübəsi nəticəsində neyronlar struktur xüsusiyyətlərində necə dəyişikliklərə məruz qalırlar ki, bu dəyişikliklər yeni bir şey bilmək (öyrənmə problemi) təşkil edir? Genom necə təşkil edilmişdir ki, onun qurduğu sinir sistemi öyrənməli olduğu şeyi öyrənə bilsin?

Son üç-dörd onillikdə genetika, psixologiya, neyroetologiya, neyroembriologiya və neyrobiologiyada baş verən möhtəşəm irəliləyiş beyinlərin necə təmsil olunduğu, öyrənilməsi və qurulduğu problemlərinə tamamilə yeni bir görünüş verdi. Prosesdə bir çox hörmətli paradiqmalar bir zərbə aldı. Köhnə həqiqətlərin küllərindən özümüz və beynimizin dünyanı necə mənalandırdığı haqqında düşünmək üçün çox fərqli bir çərçivə yaranır.

Tarixən filosoflar bildiklərimizin nə qədər instinkt, nə qədər təcrübəyə əsaslandığını müzakirə ediblər. Bir ifrat halda rasionalistlər iddia edirdilər ki, mahiyyətcə bütün biliklər anadangəlmədir. Digər tərəfdən, körpənin dəyişməsi və mədəniyyətin təsirindən təsirlənən radikal empiristlər bütün biliklərin əldə edildiyini iddia edirdilər.

Doğuş zamanı nümayiş etdirilən biliklərin anadangəlmə olma ehtimalı açıqdır. Normal yenidoğulmuş siçovul ən isti yerə qaçır, ağzını məmə ucuna bağlayır və əmməyə başlayır. Havaya atılan pişik balası özü-özünü haqlayır və ayaq üstə yerə enir. Yenidoğulmuş bir insan üz ifadəsini təqlid edəcək, məsələn, çıxmış dil. Ancaq başqa biliklər, məsələn, necə toxunmaq və ya od vurmaq, açıq-aydın doğuşdan sonra öyrənilir.

Bu cür təzadlar, bildiyimiz hər şeyin ya genlərdən qaynaqlandığını, ya da bu kateqoriyaların eksklüziv və hərtərəfli təfsir edildiyi təcrübədən qaynaqlandığını göstərir. Lakin molekulyar biologiya, neyroembriologiya və neyrobiologiyada son kəşflər təbiət və tərbiyə arasındakı bu kəskin fərqi yox etdi. Belə kəşflərdən biri də odur ki, normal inkişaf ilkin mərhələdən həm genlərə, həm də epigenetik şəraitə əsaslanır. Məsələn, androgenlərdə qeyri-adi dərəcədə yüksək olan uşaqlıq mühitində inkişaf edən qadın (XX) döl kişi görünüşlü cinsiyyət orqanı ilə doğula bilər və beynin cinsi dimorf bölgəsi olan hipotalamusda kişiləşmiş bölgə ola bilər. Siçanlarda uterusdakı plasental döl xəttindəki qonşu bacıların cinsi, müəyyən bir siçanın sonrakı nəslinin kişi/dişi nisbəti və hətta bu nəslin uzunömürlülüyü kimi şeylərə təsir edəcəkdir.

Digər tərəfdən, uzunmüddətli öyrənmənin paradiqmatik nümunələri, məsələn, meşədən keçən marşrutu yadda saxlamaq, bu öyrənməni təcəssüm etdirən hüceyrələrdə dəyişikliklər yaratmaq üçün genlərə əsaslanır. Əgər gün ərzində yeni növ sensorimotor hadisə ilə qarşılaşırsınızsa - məsələn, balıqçılıq xəttini çəkməyi öyrənirsinizsə - və beyniniz dərin yuxu dövrünüz zamanı bu hadisəni təkrarlayırsa, gen zif-268 yuxarı tənzimlənəcək. Ertəsi gün tökmə işində yaxşılaşma meydana gələn gen məhsullarından və onların neyron funksiyasındakı rolundan asılı olacaq.

Həqiqətən, beş mühüm və əlaqəli kəşf “təbiət” və “tərbiyə”nin bir-biri ilə nə qədər əlaqəli olduğunu və nəticədə köhnə fərqin nə qədər qeyri-adekvat olduğunu getdikcə daha aydın göstərdi. 3

Birincisi, genlərin etdiyi zülalların kodudur. Düzünü desək, əmzikli refleks üçün heç bir gen yoxdur, qadın həyasızlığı və ya Şotlandiya qənaətcilliyi və ya sıfır anlayışını dərk etmək bir yana qalsın. Gen sadəcə olaraq RNT-yə zülal yaratmaq üçün amin turşularının ardıcıllığını birləşdirməyə imkan verən məlumatları ehtiva edən əsas cütlər ardıcıllığıdır. (Bu genin RNT məhsullarına transkripsiya edildiyi zaman "ifadə edildiyi" deyilir, bəziləri isə öz növbəsində zülallara çevrilir.)

İkincisi, təbii seçim müəyyən bilik sahəsini dəstəkləmək üçün xüsusi naqilləri birbaşa seçə bilməz. Kor bəxt bir yana, heyvanın sağ qalıb-qalmamasını şərtləndirən onun davranışıdır, onun avadanlığı, sinir və başqa şəkildə bu davranışı dəstəkləyir. Sinir sistemindəki təmsil şücaəti, dolayı yolla da olsa, yalnız o halda seçilə bilər ki, davranış haqqında məlumat verən təmsil paketi heyvana rəqabət üstünlüyü qazandırdı. Beləliklə, təqdimat mürəkkəbliyi və onun məftil infrastrukturu yalnız onların təkmilləşdirdiyi davranış vasitəsilə seçilə bilər.

Üçüncüsü, bütün onurğalı heyvanların strukturlarında və inkişaf təşkilatında həqiqətən heyrətamiz dərəcədə qorunma dərəcəsi və qurdlardan hörümçəklərə və insanlara qədər filaların əsas hüceyrə funksiyalarında çox yüksək dərəcədə qorunma var. Bütün sinir sistemləri mahiyyətcə eyni neyrokimyəvi maddələrdən istifadə edir və onların neyronları mahiyyətcə eyni şəkildə işləyir, varyasyonlar oxşarlıqlardan xeyli üstündür. İnsanların yalnız otuz minə yaxın genləri var və biz bu 4 gendən yalnız üç yüzdə siçanlardan fərqlənirik, bu arada biz genlərimizin təxminən 99,7 faizini şimpanzelərlə paylaşırıq. Bizim və digər primatların beyinləri eyni təşkilata, təxminən eyni nisbətlərdə eyni ümumi strukturlara, eyni neyron tiplərinə və bildiyimiz qədər eyni inkişaf cədvəlinə və əlaqə modellərinə malikdir.

Dördüncüsü, yüksək mühafizə dərəcəsini nəzərə alsaq, çoxhüceyrəli orqanizmlərin müxtəlifliyi haradan qaynaqlanır? Molekulyar bioloqlar müəyyən etdilər ki, bəzi genlər mürəkkəb, interaktiv və sistematik bir quruluşda digər genlərin ifadəsini tənzimləyir və özləri də başqa genlər tərəfindən tənzimlənir. Lakin genlər (RNT vasitəsilə) zülallar əmələ gətirir, buna görə də bir genin digəri tərəfindən ifadəsi protein məhsullarına həssaslıqdan təsirlənə bilər. Bundan əlavə, həm hüceyrələr daxilində, həm də hüceyrədənkənar məkanda olan zülallar bir-biri ilə qarşılıqlı əlaqədə ola bilər ki, bu da tənzimləyici şəlalədə meydana gələ biləcək əlavə gözlənilməzliklər yaradır. Tənzimləyici genlərdəki kiçik fərqlər, aralarındakı tənzimləyici əlaqələrin mürəkkəb iyerarxiyası sayəsində böyük və geniş təsirlərə malik ola bilər. Gen ifadəsi üçün mürəkkəb, interaktiv səbəb-nəticə profillərinin ortaya çıxması çox gözəl tənzimləyici kaskadları doğurur ki, onlar çox gözəl orqanizmləri – məsələn, bizləri əmələ gətirir.

Beşincisi, orqanizmin mayalanmış yumurtadan tutmuş hazır canlıya qədər inkişafının müxtəlif aspektləri hüceyrələrin harada və nə vaxt doğulmasından asılıdır. Neyronlar neyrondan əvvəlki hüceyrələrin son bölünməsinin qız hüceyrələrindən əmələ gəlir. Belə bir qız hüceyrənin qlial (dəstəkləyici) hüceyrəyə və ya neyrona çevrilməsi və hüceyrənin yüzlərlə neyron növünə çevrilməsi onun epigenetik vəziyyətindən asılıdır. Üstəlik, talamus kimi bir bölgədən olan neyronların korteksdəki hüceyrələrə bağlanma üsulu epigenetik şəraitdən, məsələn, talamus və kortikal bezlərin spontan fəaliyyətindən, daha sonra isə təcrübəyə əsaslanan fəaliyyətindən çox asılıdır. neyronlar. Bu o demək deyil ki, məsələn, yenidoğulmuşların əmmə refleksi ilə od yandırmağı bilmək arasında səbəbli əhəmiyyətli fərqlər yoxdur. Aydındır ki, fərqlər var. Əsas məqam odur ki, fərqlər özlərini arxaik “təbiət”ə qarşı “tərbiyə” qutularına ayırmır. Genlər və ekstragenetik amillər mürəkkəb qarşılıqlı asılılıqda əməkdaşlıq edir. 5

Neyropsixologiyada son kəşflər də bu istiqamətə işarə edir. İndiyə qədər beyin mərkəzlərinin - müəyyən bir işə həsr olunmuş modulların doğuş zamanı bağlandığı güman edilirdi. İdeya ondan ibarət idi ki, korteksdəki xüsusi “vizual modullar” görmə üçün simli olduğundan görə bildik, çünki hiss edə bilərik ki, korteksdəki xüsusi modullar toxunma üçün simli idi və s.

Həqiqət daha çox müəmmalı olur.

Məsələn, kor subyektin görmə korteksi, brayl şriftinin oxunması zamanı cəlb edilir, bu, aydın qeyri-vizual, toxunma bacarığıdır - istər subyektin qazanılmış, istərsə də anadangəlmə korluq. Üstəlik, məlum olur ki, subyektin vizual korteksini maqnitlə induksiya olunan cərəyanla stimullaşdırmaq onun brayl şrifti ilə işləməsinə müvəqqəti mane olacaq. Daha da maraqlısı odur ki, görmə korteksindəki fəaliyyət hətta brayl şriftini oxumağı öyrənərkən bir neçə gün gözləri bağlı olan normal görən subyektlərdə belə baş verir. 6 Nə qədər ki, pərdə hər hansı işığın retinaya düşməsinin qarşısını almaq üçün möhkəm yerində qalıb, brayl şriftinin oxunması davamlı olaraq yaxşılaşır. Görmə korteksini normal şəkildə aktivləşdirən, toxunma qabiliyyətinin əldə edilməsinə mane olan normal vizual stimullar üçün kor bağlama vacibdir. Məsələn, beş gündən sonra pərdə çıxarılarsa, yuxuya getməzdən əvvəl subyekt qısa müddətə də olsa, televiziya proqramına baxarsa, ertəsi gün pərdə altındakı brayl performansı əvvəlki səviyyədən aşağı düşür. Əgər vizual korteks qeyri-vizual siqnalların emalında işə götürülə bilərsə, biz ayrılmış görmə modulu anlayışını və daha ümumi olaraq ayrılmış modullar fərziyyəsini hansı mənada ifadə edə bilərik?

Aydın olan odur ki, təbiətə qarşı tərbiyə dixotomiyası insan beynindəki plastikliyin mənşəyi ilə bağlı araşdırmanın qurulmasında aktivdən daha çox öhdəlikdir. Onun qeyri-adekvatlığı daha çox insan cəmiyyətlərində siyasi həyatın mürəkkəbliyini anlamaq üçün çərçivə kimi “yaxşıya qarşı şər”in qeyri-adekvatlığına bənzəyir. Bu, heç bir şeyin olmaması deyil. Ancaq bu, bir parçanı çıxarmaq üçün çubuqdan istifadə etməyə bənzəyir.

Cazibədar fikir ondan ibarətdir ki, əgər siz bir yük maşınının düyünü bağlamaq kimi bir şey öyrənsəniz, o zaman bu məlumat beynin müəyyən bir yerində, əlaqəli biliklərlə birlikdə - məsələn, qaya düyünləri və yarım düyünlər arasında saxlanılacaq. Yəni, alətləri və kağız faylları saxlamaq üçün yaxşı bir üsul - müəyyən bir yerdə müəyyən bir çekmecedə. Lakin bu, Karl Laşlinin ilk dəfə 1920-ci illərdə nümayiş etdirdiyi kimi beynin yolu deyil.

Lashley hesab edirdi ki, əgər siçovul müəyyən bir labirintdən keçən marşrut kimi bir şey öyrənibsə və bu məlumat tək, nöqtəli yerdə saxlanılıbsa, onda siz siçovulun beynini lazımi yerdə zədələməklə onu çıxara bilməlisiniz. Lashley labirintində iyirmi siçovul yetişdirdi. Sonra o, hər bir heyvandan fərqli korteks sahəsini çıxardı və siçovulların sağalmasına vaxt verdi. Daha sonra o, hansı lezyonun labirint haqqında məlumatı aradan qaldırdığını görmək üçün hər birini yenidən sınaqdan keçirdi. Lashley kəşf etdi ki, siçovulların biliyi hər hansı bir bölgədə lokallaşdırıla bilməz, bütün siçovulların bir qədər zəifləmiş və bir qədər bacarıqlı olduğu ortaya çıxdı - daha geniş toxumaların çıxarılması daha ciddi yaddaş çatışmazlığına səbəb oldu.

Təkmilləşdirilmiş eksperimental protokolların daha sonra göstərdiyi kimi, Lashley-nin lokalizasiya ilə bağlı gəldiyi nəticə əsasən düzgün idi. Beyində ayrılmış yaddaş orqanı kimi bir şey yoxdur ki, məlumatlar ümumiyyətlə sənəd kabineti modelində saxlanılmır, lakin neyronlar arasında paylanır.

İnformasiyanın şəbəkədəki neyronlar üzərində paylanmasının nə demək olduğu barədə ümumi anlayış kompüter modellərindən yaranmışdır. Əsas ideya ondan ibarətdir ki, şəbəkədəki süni neyronlar digər süni neyronlarla əlaqəsi və bu əlaqələrin dəyişkən güclü tərəfləri sayəsində nəyisə təmsil edən nümunə yarada bilər – məsələn, kişi üzü və ya qadın üzü və ya üz. Çörçilin. Süni şəbəkə təlim mərhələsindən keçdikcə, əlaqənin güclü tərəfləri dəyişir və bu müddət ərzində o, daxil olduğu məlumatların adekvatlığı barədə rəy alır. Lakin faktiki neyron şəbəkələrinin kompüterdə simulyasiya edilmiş şəbəkələrdən fərqli olaraq, məlumatı necə saxlaması və yayması ilə bağlı bir çox detallar hələ dəqiqləşdirilməmişdir və buna görə də kompüter modelləri və neyron təcrübələri birlikdə inkişaf edir.

Neyroloqlar müxtəlif tədqiqat strategiyalarından istifadə edərək öyrənmə strukturunu anlamağa çalışırlar. Bir strategiya, nəyin, nə vaxt və niyə dəyişdiyini öyrənmək üçün neyron səviyyəsində təcrübədən asılı dəyişiklikləri izləməkdən ibarətdir. Başqa bir strategiya daha geniş miqyasda öyrənməyi əhatə edir: lezyonlar olduqda və ya inkişaf zamanı və ya subyekt skanerdə olarkən yaddaş tapşırığını yerinə yetirdikdə və ya eksperimental heyvanlarda, davranışda və xüsusən də beyin alt sistemlərində baş verənlər. müəyyən genlər sökülür? Sorğunun bu səviyyəsində psixologiya, nevrologiya və molekulyar biologiya sıx qarşılıqlı əlaqədədir.

Şəbəkə səviyyəsində tədqiqat sistemlər və neyron səviyyələri arasındakı boşluğu aradan qaldırmaq məqsədi daşıyır. Problemlərdən biri bir çox müxtəlif neyronlarda fərqli lokal dəyişikliklərin ardıcıl qlobal, sistem səviyyəsində dəyişiklik və vəzifəyə uyğun davranış modifikasiyasına necə səbəb olduğunu başa düşməkdir. Beyindəki müxtəlif və uzaq miqyaslı dəyişikliklər təkmil golf yelləncəklərinin və ya kvant mexanikasını daha yaxşı bilmənin əsasında necə dayanır?

Beyində hansı təcrübədən asılı dəyişikliklər baş verir? Bir gündən digərinə, məni mən halına gətirən neyronlar bir çox struktur dəyişikliklərinə məruz qalır: yeni budaqlar cücərə bilər, mövcud budaqlar uzana bilər və neyrokimyəvi siqnallar üçün yeni reseptor yerləri yarana bilər. Digər tərəfdən, budama budaqları azalda bilər və bununla da neyronlar arasında sinaptik əlaqələrin sayını azalda bilər. Və ya qalan budaqlardakı sinapslar tamamilə bağlana bilər. Və ya bütün hüceyrə əvvəllər dəstəklədiyi bütün sinapsları götürərək ölə bilər. Və ya nəhayət, müəyyən xüsusi bölgələrdə tamamilə yeni bir neyron doğula və öz bölgəsində sinaptik əlaqələr qurmağa başlaya bilər.

Və bu hamısı deyil. Təkrarlanan yüksək sinaptik atəş sürəti (spiking) sərbəst buraxılmaq üçün mövcud olan neyrotransmitter veziküllərini tükəndirəcək və beləliklə, iki-üç saniyəyə bir növ yaddaş təşkil edəcəkdir. Xüsusi neyronların tərkib hissələri, hər bir sünbüldə buraxılan veziküllərin sayı və hər bir veziküldə olan ötürücü molekulların sayı dəyişə bilər. Yenə də, nədənsə, mənim bacarıqlarım eyni qalır və beynim heç vaxt gündən-günə, hətta dəqiqədən dəqiqəyə eyni olmasa da, avtobioqrafik xatirələrim toxunulmaz qalır.

Neyronlar daxilində və neyron populyasiyaları arasında müxtəlif dəyişikliklərin düzgün şəkildə təşkil edilməsini və təcrübə dərslərini kollektiv şəkildə əks etdirməsini təmin etmək üçün heç bir “bandlider” neyron yoxdur. Buna baxmayaraq, bir sıra ümumi fərziyyələr tədqiqata rəhbərlik edir. Rahatlıq üçün, neyron modifikasiyasının geniş diapazonu sadəcə sinapsların modifikasiyasına istinad etməklə sıxlaşdırıla bilər. Sinapsları dəyişdirmək qərarı qlobal (geniş yayım) və ya yerli (xüsusi sinapsların hədəflənməsi) verilə bilər. Qlobal miqyasda edilərsə, o zaman dəyişiklik üçün siqnal icazəli olacaq, əslində “sən indi özünü dəyişə bilərsən” deyəcək – lakin dəqiq harada, nə qədər və ya hansı istiqamətdə diktə etməyəcək. Əgər yerli olarsa, qərar çox güman ki, belə bir qaydaya uyğun olacaq: Əgər fərqli, lakin eyni vaxtda daxil olan giriş siqnalları qəbul edən neyronun sıçrayışla cavab verməsinə səbəb olarsa, o zaman giriş neyronları ilə çıxış neyronları arasında əlaqəni gücləndirin. Özlüyündə bir presinaptik (göndərən) neyrondan gələn bir siqnalın postsinaptik (qəbul edən) neyronun sıçrayışına səbəb olması ehtimalı azdır. Ancaq iki fərqli presinaptik neyron - bəlkə də biri eşitmə sistemindən və digəri somatosensor sistemdən - eyni postsinaptik neyronla eyni vaxtda birləşirsə, qəbul edən neyronda sıçrayış ehtimalı daha yüksəkdir. Bu birgə daxiletmə fəaliyyəti daha böyük postsinaptik effekt yaradır, neyron daxilində sinapsı gücləndirən hadisələrin kaskadını tetikler. Bu ümumi quruluş fərqli, lakin əlaqəli dünya hadisələrini (məsələn, mavi çiçək və bol nektar) əlaqəli neyron hadisələri ilə modelləşdirməyə imkan verir.

Sinir sistemi heyvanlara proqnozlar verməyə imkan verir. 7 Bitkilərdən fərqli olaraq, heyvanlar gələcək korrelyasiya ehtimalını mühakimə etmək üçün hadisələrin sinifləri arasında (məsələn, qırmızı albalı və razı ləzzət arasında) keçmiş korrelyasiyalardan istifadə edə bilərlər. Beləliklə, öyrənmənin mərkəzi hissəsi hansı xüsusi xüsusiyyətlərin hansı arzuolunan təsirlərin mövcudluğunu proqnozlaşdırdığını hesablamağı əhatə edir. Dəyişən mükafatları bir xüsusiyyət ilə müəyyən dərəcədə ehtimalla əlaqələndiririk, buna görə də yaxşı proqnozlar həm mükafatın gözlənilən dəyərini, həm də mükafatın baş vermə ehtimalını əks etdirəcək, bu, gözlənilən faydadır. Həm insanlar, həm də arılar, həyatın normal gedişatında gözlənilən faydalılığı hesablayırlar və beynimizin bunu necə etdiyini izah etmək üçün bəzi neyron detalları ortaya çıxmağa başlayır.

Təsadüfi müşahidəçiyə elə gəlir ki, arılar istər-istəməz nektar üçün çiçəklərə baş çəkirlər. Lakin daha yaxından müşahidə onların metodik olaraq yem yığdıqlarını göstərir. Arılar təkcə hansı çiçəkləri ziyarət etdiklərini xatırlamağa meylli deyil, həm də müxtəlif miqdarda nektar olan qarışıq çiçəklər sahəsində onlar həm də yem axtarış strategiyalarını optimallaşdırmağı öyrənirlər ki, ən az səylə ən çox nektar əldə etsinlər.

Tutaq ki, siz iki dəst plastik çiçəkdən ibarət kiçik bir sahəyə sahibsiniz - sarı və mavi - hər birinin mərkəzində dəqiq miqdarda saxaroza yığılmış quyular var. 8 Bu çiçəklər təsadüfi olaraq qapalı sahənin ətrafında paylanır və sonra ölçülmüş həcmdə "nektar" ilə yemlənir: bütün mavi çiçəklərdə iki millilitr var, sarı çiçəklərin üçdə birində altı mililitr var, üçdə ikisində isə yoxdur. Bu saxaroza paylanması mavi çiçəklərin populyasiyasını ziyarət etməyin orta dəyərinin sarı çiçəkləri ziyarət etmək ilə eyni olmasını təmin edir, baxmayaraq ki, sarı çiçəklər mavilərdən daha qeyri-müəyyəndir.

Çiçəklərin ilkin təsadüfi nümunəsindən sonra, arılar tez bir zamanda mavi çiçəklərə 85 faiz getmə modelinə düşürlər. Sarı çiçəklərin orta dəyərini artırmaqla, məsələn, onların üçdə birini on mililitrlə yemləməklə onların yem axtarış modelini dəyişə bilərsiniz. Arıların davranışı mənbə növünün etibarlılığı ilə mənbə növünün nektar həcmi arasında bir növ mübadilə göstərir və arılar etibarlılığa yumşaq üstünlük verirlər. Maraqlısı budur: ziyarət nümunəsində alınan mükafat profilindən asılı olaraq, arılar strategiyalarını yenidən nəzərdən keçirirlər. Görünür, arılar gözlənilən faydanı hesablayırlar. arılar necə - sadəcə arılar - bunu edirsiniz?

Arının beynində mükafata müsbət cavab verən neyron var, özü də nə hissiyyatlı, nə də motor. VUMmx1 (qısaca “vum”) adlanan bu neyron arı beynində çox diffuz şəkildə proyeksiya edir, həm duyğu, həm də motor bölgələrə çatır, çünki o, gücləndirici öyrənməyə vasitəçilik edir. Read Montague və Peter Dayan süni neyron şəbəkəsindən istifadə edərək vumun fəaliyyətinin proqnozlaşdırma xətasını – yəni “gözlənilən yaxşılıqlar” və “bu dəfə alınan yaxşılıqlar” arasındakı fərqi təmsil etdiyini kəşf etdilər. fəaliyyət seçiminə cavabdeh olanlar da daxil olmaqla, müxtəlif hüceyrələri hədəfləyir. Əgər həmin neyromodulyator sensor neyronları vumla birləşdirən sinapslarda da fəaliyyət göstərirsə, sinapslar vumun “gözləniləndən daha pis” (daha az neyromodulyator) və ya “gözləniləndən daha yaxşı” (daha çox neyromodulyator) hesablamasından asılı olaraq güclənəcək. Montague-Dayan modelinin düzgün olduğunu fərz etsək, o zaman kifayət qədər sadə çəki modifikasiyası alqoritminə uyğun işləyən təəccüblü sadə sxem, arının yem axtarma şəraitinə uyğunlaşmasının əsasını təşkil edir.

Hadisələr arasında asılılıq əlaqələri çox mürəkkəb ola bilər. Həyatın çox hissəsində asılılıqlar şərti və ehtimallıdır: Əgər Qarmağa təzə qurd qoyuram və əgər deməli, günortadır çox güman ki Mən alabalıq tutacağam burada. Dünyanın mürəkkəblikləri haqqında daha çox öyrəndikcə, biz asılılıq münasibətləri ilə bağlı təsvirlərimizi “təkmilləşdiririk” 10, məsələn, alabalıqların su sərin olanda tutulma ehtimalının daha çox olduğunu, kölgəli hovuzların daha çox perspektivli balıq cənnətləri olduğunu öyrənirik. günəşli hovuzlar və qurdla danışmaq, alabalığa yalvarmaq və ya "şanslı" şapka taxmaq heç bir fərq etmir. İnsanlarda və digər heyvanlarda zəka dediyimiz şeyin bir hissəsi asılılıq münasibətləri haqqında getdikcə daha mürəkkəb bir anlayış əldə etmək qabiliyyətidir. Bu, bizə uzunmüddətli perspektivdə həqiqətən proqnozlaşdırılmayan təsadüfi korrelyasiyaları (məsələn, on üçüncü cümə günü dişin qırılması) səbəb-nəticə əlaqəsindən (məsələn, dişin qırılması və bərk konfet çeynəməsi) ayırmağa imkan verir. Bu o deməkdir ki, biz xurafatçı fərziyyələri empirik toplanışdan keçən fərziyyələrlə əvəz edə bilərik.

Arı kimi, insanlar və digər heyvanlar da dünyanın necə işlədiyini öyrənməyə vasitəçilik edən bir mükafat sisteminə malikdirlər. Məməlilərin beynində vum kimi mükafata cavab verən neyronlar var. 11 Onlar öz reaksiyalarını mükafatı proqnozlaşdıran və ya mükafatın gəlmədiyi təqdirdə səhvi göstərən stimula keçirlər. Bu neyronlar beyin sapı strukturundan (ventral tegmental sahə və ya 'vta') frontal korteksə proyeksiya edir və postsinaptik neyronlara dopamini buraxır. Mükafat sistemində iştirak edən neyrokimyəvi maddələrdən yalnız biri olan dopamin, hədəf neyronların neyrotransmitterlərə həyəcanlılığını modullaşdırır və beləliklə, xüsusi assosiasiyaların yerli öyrənilməsi üçün şərait yaradır.

Zövqü artırmaq və narahatlıq və ağrıları azaltmaqla davranışı gücləndirmək çox səmərəli işləyir. Buna baxmayaraq, belə bir sistem davranışı beynin öz mükafat sisteminin neyrokimyəvi maddələrini təqlid edən bitki mənşəli molekullar tərəfindən ələ keçirilə bilər. Mükafat sisteminin yollarında dəyişikliklər kokain, nikotin və ya opiatların tətbiqindən sonra baş verir, bunların hamısı neyronlardakı reseptor sahələrə bağlanır və beynin öz peptidlərinə bənzəyir. Çox sayda beyin peptidinin beyin funksiyasında dəqiq rolu nevrologiyanın davam edən problemlərindən biridir. 12

Bu kəşflər proqnozun altında yatan sinir təşkilatını anlamaq üçün qapı açır. Onlar tək neyronlarda təcrübədən asılı dəyişikliklər və təcrübədən asılı davranış rəhbərliyi arasında izahedici körpü yaratmağa başlayırlar. Və onlar asılılığın neyrobiologiyasını ifşa etməyə başlayıblar. Tədqiqatın tamamlayıcı xətti, bu arada, nəyin pis olduğunu proqnozlaşdırmaq üçün mexanizmləri açır. Təhlükəli öyrənmə gücləndirici öyrənmə ilə müqayisədə fərqli strukturlar və şəbəkələrdən asılı olsa da, burada da kritik dəyişikliklər fərdi neyronlar səviyyəsində baş verir və bu yerli dəyişikliklər neyron populyasiyaları arasında əlaqələndirilir və zamanla inteqrasiya olunur.

Tədqiqatın digər sahələrində müqayisə edilə bilən izahlı mövzular sinir sisteminin təşkilinin bir çox səviyyələrini birləşdirməyə başlayır. Bu tədqiqat iş yaddaşı (müvafiq stimullar olmadıqda məlumatı hazır vəziyyətdə saxlamaq) məkan öyrənmə, avtobioqrafik yaddaş, motor bacarıqları və məntiqi nəticə haqqında anlayışımızı dərinləşdirdi. Biliyin neyroelmində fövqəladə tədqiqat nailiyyətləri verməklə yanaşı, bunların nevrologiya üçün hələ çox erkən günlər olduğunu başa düşmək çox vacibdir. Bir çox sürprizlər - və hətta bir və ya iki inqilab - şübhəsiz ki, hazırdır.

Neyrologiya, psixologiya, embriologiya və molekulyar biologiya birlikdə bizə özümüz haqqında öyrədir. bilənlər – bilmək, öyrənmək, xatırlamaq və unutmaq nə olduğu haqqında. Lakin bütün filosoflar bu inkişafları tərəqqi kimi qəbul etmirlər. 13 Bəziləri hesab edir ki, bizim xarici reallıq dediyimiz şey qeyri-fiziki ağılda yaradılmış ideyadan başqa bir şey deyil, yalnız introspeksiya və əks etdirmə yolu ilə dərk edilə bilən ağıldır. Bu filosoflara idrak nevrologiyasındakı inkişaflar ən yaxşı halda əhəmiyyətsiz görünür.

Bu filosofların yanaşmasında həqiqət elementi onların təxminləridir ki, ağıl sadəcə reallığın rəngləndiyi passiv kətan deyil. Həqiqətən, biz bilirik ki, beyinlər davamlı olaraq təşkil edir, strukturlaşır, çıxarır və yaradır. Onların proqnozlaşdırıcı funksiyalarının mərkəzi hissəsi olaraq, sinir sistemləri əldə etdikləri hər hansı bir giriş haqqında əlaqəli bir hekayə yaratmaq üçün təchiz edilmişdir. “Uyğunlaşma”, mənim dediyim kimi, bəzən bütövlükdə bir fraqmenti və ya heç birinin mövcud olmadığı bir konturun görünməsini tələb edir, bəzən bir obyektin hələ dərk edilməmiş kimi qaçılmaz qavrayışını proqnozlaşdırmaqdan ibarətdir. Öyrənmə nəticəsində beyinlər uşaqda meningitin başlanğıcını və ya Yerin kölgəsi ilə Günəşin tutulmasını göstərən bir stimulu tanımağa başlayır. Bu cür biliklər neyron şəbəkələrinin yığınlarından asılıdır. Gerçəkliyin təbiətini beyinlər və beyinlərin tərtib etdiyi və şərh etdiyi nəzəriyyələr və artefaktlar vasitəsilə dərk etmək mümkün deyil.

Bundan belə nəticə çıxarmır ki, reallıq belədir yalnız ağıl tərəfindən yaradılmış ideyadır. Bu, daha doğrusu, beynimizin reallığın səbəb-nəticə quruluşunu daha dəqiq təsvir edən fərziyyələr hazırlamağa çalışaraq bir-birinə bağlı qalması deməkdir. Nəzəriyyələrin növbəti nəslini sonuncunun iskele və ya xarabalıqları üzərində qururuq. Hipotezlərimizin getdikcə daha adekvat olub-olmadığını necə bilirik? Yalnız proqnozlaşdırmaq və izah etməkdə nisbi uğurları ilə.

Bəs bütün bunlar o deməkdirmi ki, nevrologiyada bir növ ölümcül çeviklik var – beynin özünü öyrənmək üçün mütləq özü istifadə edir? Bu barədə düşünsəniz yox. Öyrəndiyim beyin nadir hallarda mənim, lakin digər heyvanların və ya insanların beynidir və mən öz işimə etibarlı şəkildə ümumiləşdirə bilirəm. Neyroepistemologiya bir çox beyinləri əhatə edir - bir-birini düzəltmək, bir-birini sınamaq və sinir dünyasını xarakterizə etmək üçün daha yaxşı və ya daha pis kimi qiymətləndirilə bilən modellər qurmaq.

Filosofun görəcəyi bir şey qalıbmı? For the neurophilosopher, at least, questions abound: about the integration of distinct memory systems, the nature of representation, the nature of reasoning and rationality, how information is used to make decisions, what nervous systems interpret as information, and so on. These are questions with deep roots reaching back to the ancient Greeks, with ramifying branches extending throughout the history and philosophy of Western thought. They are questions where experiment and theoretical insight must jointly conspire, where creativity in experimental design and creativity in theoretical speculation must egg each other on to unforeseen discoveries. 14

1 Portions of this paper are drawn from my book Brain-Wise: Studies in Neurophilosophy (Cambridge, Mass.:MIT Press, 2002).


Model sheds light on purpose of inhibitory neurons

Images for download on the MIT News office website are made available to non-commercial entities, press and the general public under a Creative Commons Attribution Non-Commercial No Derivatives license. You may not alter the images provided, other than to crop them to size. A credit line must be used when reproducing images if one is not provided below, credit the images to "MIT."

Previous image Next image

Researchers at MIT’s Computer Science and Artificial Intelligence Laboratory have developed a new computational model of a neural circuit in the brain, which could shed light on the biological role of inhibitory neurons — neurons that keep other neurons from firing.

The model describes a neural circuit consisting of an array of input neurons and an equivalent number of output neurons. The circuit performs what neuroscientists call a “winner-take-all” operation, in which signals from multiple input neurons induce a signal in just one output neuron.

Using the tools of theoretical computer science, the researchers prove that, within the context of their model, a certain configuration of inhibitory neurons provides the most efficient means of enacting a winner-take-all operation. Because the model makes empirical predictions about the behavior of inhibitory neurons in the brain, it offers a good example of the way in which computational analysis could aid neuroscience.

The researchers will present their results this week at the conference on Innovations in Theoretical Computer Science. Nancy Lynch, the NEC Professor of Software Science and Engineering at MIT, is the senior author on the paper. She’s joined by Merav Parter, a postdoc in her group, and Cameron Musco, an MIT graduate student in electrical engineering and computer science.

For years, Lynch’s group has studied communication and resource allocation in ad hoc networks — networks whose members are continually leaving and rejoining. But recently, the team has begun using the tools of network analysis to investigate biological phenomena.

“There’s a close correspondence between the behavior of networks of computers or other devices like mobile phones and that of biological systems,” Lynch says. “We’re trying to find problems that can benefit from this distributed-computing perspective, focusing on algorithms for which we can prove mathematical properties.”

Artificial neurology

In recent years, artificial neural networks — computer models roughly based on the structure of the brain — have been responsible for some of the most rapid improvement in artificial-intelligence systems, from speech transcription to face recognition software.

An artificial neural network consists of “nodes” that, like individual neurons, have limited information-processing power but are densely interconnected. Data are fed into the first layer of nodes. If the data received by a given node meet some threshold criterion — for instance, if it exceeds a particular value — the node “fires,” or sends signals along all of its outgoing connections.

Each of those outgoing connections, however, has an associated “weight,” which can augment or diminish a signal. Each node in the next layer of the network receives weighted signals from multiple nodes in the first layer it adds them together, and again, if their sum exceeds some threshold, it fires. Its outgoing signals pass to the next layer, and so on.

In artificial-intelligence applications, a neural network is “trained” on sample data, constantly adjusting its weights and firing thresholds until the output of its final layer consistently represents the solution to some computational problem.

Biological plausibility

Lynch, Parter, and Musco made several modifications to this design to make it more biologically plausible. The first was the addition of inhibitory “neurons.” In a standard artificial neural network, the values of the weights on the connections are usually positive or capable of being either positive or negative. But in the brain, some neurons appear to play a purely inhibitory role, preventing other neurons from firing. The MIT researchers modeled those neurons as nodes whose connections have only negative weights.

Many artificial-intelligence applications also use “feed-forward” networks, in which signals pass through the network in only one direction, from the first layer, which receives input data, to the last layer, which provides the result of a computation. But connections in the brain are much more complex. Lynch, Parter, and Musco’s circuit thus includes feedback: Signals from the output neurons pass to the inhibitory neurons, whose output in turn passes back to the output neurons. The signaling of the output neurons also feeds back on itself, which proves essential to enacting the winner-take-all strategy.

Finally, the MIT researchers’ network is probabilistic. In a typical artificial neural net, if a node’s input values exceed some threshold, the node fires. But in the brain, increasing the strength of the signal traveling over an input neuron only increases the chances that an output neuron will fire. The same is true of the nodes in the researchers’ model. Again, this modification is crucial to enacting the winner-take-all strategy.

In the researchers’ model, the number of input and output neurons is fixed, and the execution of the winner-take-all computation is purely the work of a bank of auxiliary neurons. “We are trying to see the trade-off between the computational time to solve a given problem and the number of auxiliary neurons,” Parter explains. “We consider neurons to be a resource we don’t want too spend much of it.”

Inhibition’s virtues

Parter and her colleagues were able to show that with only one inhibitory neuron, it’s impossible, in the context of their model, to enact the winner-take-all strategy. But two inhibitory neurons are sufficient. The trick is that one of the inhibitory neurons — which the researchers call a convergence neuron — sends a strong inhibitory signal if more than one output neuron is firing. The other inhibitory neuron — the stability neuron — sends a much weaker signal as long as any output neurons are firing.

The convergence neuron drives the circuit to select a single output neuron, at which point it stops firing the stability neuron prevents a second output neuron from becoming active once the convergence neuron has been turned off. The self-feedback circuits from the output neurons enhance this effect. The longer an output neuron has been turned off, the more likely it is to remain off the longer it’s been on, the more likely it is to remain on. Once a single output neuron has been selected, its self-feedback circuit ensures that it can overcome the inhibition of the stability neuron.

Without randomness, however, the circuit won’t converge to a single output neuron: Any setting of the inhibitory neurons’ weights will affect all the output neurons equally. “You need randomness to break the symmetry,” Parter explains.

The researchers were able to determine the minimum number of auxiliary neurons required to guarantee a particular convergence speed and the maximum convergence speed possible given a particular number of auxiliary neurons.

Adding more convergence neurons increases the convergence speed, but only up to a point. For instance, with 100 input neurons, two or three convergence neurons are all you need adding a fourth doesn’t improve efficiency. And just one stability neuron is already optimal.

But perhaps more intriguingly, the researchers showed that including excitatory neurons — neurons that stimulate, rather than inhibit, other neurons’ firing — as well as inhibitory neurons among the auxiliary neurons cannot improve the efficiency of the circuit. Similarly, any arrangement of inhibitory neurons that doesn’t observe the distinction between convergence and stability neurons will be less efficient than one that does.

Assuming, then, that evolution tends to find efficient solutions to engineering problems, the model suggests both an answer to the question of why inhibitory neurons are found in the brain and a tantalizing question for empirical research: Do real inhibitory neurons exhibit the same division between convergence neurons and stability neurons?

“This computation of winner-take-all is quite a broad and useful motif that we see throughout the brain,” says Saket Navlakha, an assistant professor in the Integrative Biology Laboratory at the Salk Institute for Biological Studies. “In many sensory systems — for example, the olfactory system — it’s used to generate sparse codes.”

“There are many classes of inhibitory neurons that we’ve discovered, and a natural next step would be to see if some of these classes map on to the ones predicted in this study,” he adds.

“There’s a lot of work in neuroscience on computational models that take into account much more detail about not just inhibitory neurons but what proteins drive these neurons and so on,” says Ziv Bar-Joseph, a professor of computer science at Carnegie Mellon University. “Nancy is taking a global view of the network rather than looking at the specific details. In return she gets the ability to look at some larger-picture aspects. How many inhibitory neurons do you really need? Why do we have so few compared to the excitatory neurons? The unique aspect here is that this global-scale modeling gives you a much higher-level type of prediction.”


Model sheds light on purpose of inhibitory neurons

Researchers at MIT’s Computer Science and Artificial Intelligence Laboratory have developed a new computational model of a neural circuit in the brain, which could shed light on the biological role of inhibitory neurons — neurons that keep other neurons from firing.

The model describes a neural circuit consisting of an array of input neurons and an equivalent number of output neurons. The circuit performs what neuroscientists call a “winner-take-all” operation, in which signals from multiple input neurons induce a signal in just one output neuron.

Using the tools of theoretical computer science, the researchers prove that, within the context of their model, a certain configuration of inhibitory neurons provides the most efficient means of enacting a winner-take-all operation. Because the model makes empirical predictions about the behavior of inhibitory neurons in the brain, it offers a good example of the way in which computational analysis could aid neuroscience.

The researchers will present their results this week at the conference on Innovations in Theoretical Computer Science. Nancy Lynch, the NEC Professor of Software Science and Engineering at MIT, is the senior author on the paper. She’s joined by Merav Parter, a postdoc in her group, and Cameron Musco, an MIT graduate student in electrical engineering and computer science.

For years, Lynch’s group has studied communication and resource allocation in ad hoc networks — networks whose members are continually leaving and rejoining. But recently, the team has begun using the tools of network analysis to investigate biological phenomena.

“There’s a close correspondence between the behavior of networks of computers or other devices like mobile phones and that of biological systems,” Lynch says. “We’re trying to find problems that can benefit from this distributed-computing perspective, focusing on algorithms for which we can prove mathematical properties.”

Artificial neurology

In recent years, artificial neural networks — computer models roughly based on the structure of the brain — have been responsible for some of the most rapid improvement in artificial-intelligence systems, from speech transcription to face recognition software.

An artificial neural network consists of “nodes” that, like individual neurons, have limited information-processing power but are densely interconnected. Data are fed into the first layer of nodes. If the data received by a given node meet some threshold criterion — for instance, if it exceeds a particular value — the node “fires,” or sends signals along all of its outgoing connections.

Each of those outgoing connections, however, has an associated “weight,” which can augment or diminish a signal. Each node in the next layer of the network receives weighted signals from multiple nodes in the first layer it adds them together, and again, if their sum exceeds some threshold, it fires. Its outgoing signals pass to the next layer, and so on.

In artificial-intelligence applications, a neural network is “trained” on sample data, constantly adjusting its weights and firing thresholds until the output of its final layer consistently represents the solution to some computational problem.

Biological plausibility

Lynch, Parter, and Musco made several modifications to this design to make it more biologically plausible. The first was the addition of inhibitory “neurons.” In a standard artificial neural network, the values of the weights on the connections are usually positive or capable of being either positive or negative. But in the brain, some neurons appear to play a purely inhibitory role, preventing other neurons from firing. The MIT researchers modeled those neurons as nodes whose connections have only negative weights.

Many artificial-intelligence applications also use “feed-forward” networks, in which signals pass through the network in only one direction, from the first layer, which receives input data, to the last layer, which provides the result of a computation. But connections in the brain are much more complex. Lynch, Parter, and Musco’s circuit thus includes feedback: Signals from the output neurons pass to the inhibitory neurons, whose output in turn passes back to the output neurons. The signaling of the output neurons also feeds back on itself, which proves essential to enacting the winner-take-all strategy.

Finally, the MIT researchers’ network is probabilistic. In a typical artificial neural net, if a node’s input values exceed some threshold, the node fires. But in the brain, increasing the strength of the signal traveling over an input neuron only increases the chances that an output neuron will fire. The same is true of the nodes in the researchers’ model. Again, this modification is crucial to enacting the winner-take-all strategy.

In the researchers’ model, the number of input and output neurons is fixed, and the execution of the winner-take-all computation is purely the work of a bank of auxiliary neurons. “We are trying to see the trade-off between the computational time to solve a given problem and the number of auxiliary neurons,” Parter explains. “We consider neurons to be a resource we don’t want too spend much of it.”

Inhibition’s virtues

Parter and her colleagues were able to show that with only one inhibitory neuron, it’s impossible, in the context of their model, to enact the winner-take-all strategy. But two inhibitory neurons are sufficient. The trick is that one of the inhibitory neurons — which the researchers call a convergence neuron — sends a strong inhibitory signal if more than one output neuron is firing. The other inhibitory neuron — the stability neuron — sends a much weaker signal as long as any output neurons are firing.

The convergence neuron drives the circuit to select a single output neuron, at which point it stops firing the stability neuron prevents a second output neuron from becoming active once the convergence neuron has been turned off. The self-feedback circuits from the output neurons enhance this effect. The longer an output neuron has been turned off, the more likely it is to remain off the longer it’s been on, the more likely it is to remain on. Once a single output neuron has been selected, its self-feedback circuit ensures that it can overcome the inhibition of the stability neuron.

Without randomness, however, the circuit won’t converge to a single output neuron: Any setting of the inhibitory neurons’ weights will affect all the output neurons equally. “You need randomness to break the symmetry,” Parter explains.

The researchers were able to determine the minimum number of auxiliary neurons required to guarantee a particular convergence speed and the maximum convergence speed possible given a particular number of auxiliary neurons.

Adding more convergence neurons increases the convergence speed, but only up to a point. For instance, with 100 input neurons, two or three convergence neurons are all you need adding a fourth doesn’t improve efficiency. And just one stability neuron is already optimal.

But perhaps more intriguingly, the researchers showed that including excitatory neurons — neurons that stimulate, rather than inhibit, other neurons’ firing — as well as inhibitory neurons among the auxiliary neurons cannot improve the efficiency of the circuit. Similarly, any arrangement of inhibitory neurons that doesn’t observe the distinction between convergence and stability neurons will be less efficient than one that does.

Assuming, then, that evolution tends to find efficient solutions to engineering problems, the model suggests both an answer to the question of why inhibitory neurons are found in the brain and a tantalizing question for empirical research: Do real inhibitory neurons exhibit the same division between convergence neurons and stability neurons?

“This computation of winner-take-all is quite a broad and useful motif that we see throughout the brain,” says Saket Navlakha, an assistant professor in the Integrative Biology Laboratory at the Salk Institute for Biological Studies. “In many sensory systems — for example, the olfactory system — it’s used to generate sparse codes.”

“There are many classes of inhibitory neurons that we’ve discovered, and a natural next step would be to see if some of these classes map on to the ones predicted in this study,” he adds.

“There’s a lot of work in neuroscience on computational models that take into account much more detail about not just inhibitory neurons but what proteins drive these neurons and so on,” says Ziv Bar-Joseph, a professor of computer science at Carnegie Mellon University. “Nancy is taking a global view of the network rather than looking at the specific details. In return she gets the ability to look at some larger-picture aspects. How many inhibitory neurons do you really need? Why do we have so few compared to the excitatory neurons? The unique aspect here is that this global-scale modeling gives you a much higher-level type of prediction.”


1.4 Cerebral Cortex

The Cerebrum — left & right hemispheres of the brain — makeup around 85% of the brain’s weight & oversee one’s ability to think, speak & perceive.

The Cerebral Cortex, which covers the cerebrum, comprises of a thin layer of over 20 billion interconnected neurons. This is the general-purpose matter that we concern ourselves with when attempting to model a general-purpose modular computational system. The Glial cells provide a web of support that surrounds, insolate & nourishes these cerebral neurons.

The Cerebral Cortex is subdivided into 4 lobes: the Frontal lobe is involved in speaking, planning, judging, abstract thinking & personality aspects. The Parietal lobe is responsible for one’s sense of touch & spatial location/body position. The Occipital lobe processes information pertaining to sight. Finally, the Temporal lobe is concerned with processing sound & thus speech comprehension. These segments are depicted in Figure 3.

Whilst somewhat superfluous to our needs, describing the structural form of one’s neuroanatomy provides a framework for thinking about the modular, hierarchical nature of natural cognition. Now that we’ve detailed this framework, we can zoom in to the mechanisms of the nervous system.


Feedforward is the process neural networks use to turn the input into an output. We will be referencing the image given below for calculating y^.

Read the image from right to left.

  • The first operation is multiplying the input vector including the bias with the W¹ matrix. Keep in mind that you might have to do some matrix transformation to make matrix multiplication feasible(convert input matrix to 1X3 and then multiply to W¹ to create an output of shape 1X2).
  • After matrix multiplication, apply the sigmoid activation function.
  • Till now we have calculated the value for the 1st hidden layer, now we will add a new bias to the hidden layer matrix(here it become 1X3 from 1X2). The next step is multiplying the hidden layer matrix to W².
  • After matrix multiplication, we will be left with a single value that will be fed to the sigmoid activation function resulting in y^. This type of ANN architecture can be used in binary classification(if the output is greater than 0.5 we can predict 1 else 0).

Following the idea behind these steps, we can turn the input to output for an ANN even with 100 hidden layers.

Before starting Backpropagation step, we have to understand some concepts that we will require to explain Backpropagation. Concepts includes :

→Cost function

→ Gradient Descent


Neuron 'claws' in the brain enable flies to distinguish one scent from another

Think of the smell of an orange, a lemon, and a grapefruit. Each has strong acidic notes mixed with sweetness. And yet each fresh, bright scent is distinguishable from its relatives. These fruits smell similar because they share many chemical compounds. How, then does the brain tell them apart? How does the brain remember a complex and often overlapping chemical signature as a particular scent?

Researchers at Cold Spring Harbor Laboratory (CSHL) are using the fruit fly to discover how the brain integrates multiple signals to identify one unique smell. It's work that has a broader implication for how flies - and ultimately, people - learn. In work published today in Təbiət Neyrologiyası, a team led by Associate Professor Glenn Turner describes how a group of neurons in the fruit fly brain recognize multiple individual chemicals in combination in order to define, or remember, a single scent.

The olfactory system of a fruit fly begins at the equivalent of our nose, where a series of neurons sense and respond to very specific chemicals. These neurons pass their signal on to a group of cells called projection neurons. Then the signal undergoes a transformation as it is passed to a body of neurons in the fly brain called Kenyon cells.

Kenyon cells have multiple, extremely large protrusions that grasp the projection neurons with a claw-like structure. Each Kenyon cell claw is wrapped tightly around only one projection neuron, meaning that it receives a signal from just one type of input. In addition to their unique structure, Kenyon cells are also remarkable for their selectivity. Because they're selective, they aren't often activated. Yet little is known about what in fact makes them decide to fire a signal.

Turner and colleague Eyal Gruntman, who is lead author on their new paper, used cutting-edge microscopy to explore the chemical response profile for multiple claws on one Kenyon cell. They found that each claw, even on a single Kenyon cell, responded to different odor molecules. Additional experiments using light to stimulate individual neurons (a technique called optogenetics) revealed that single Kenyon cells were only activated when several of their claws were simultaneously stimulated, explaining why they so rarely fire. Taken together, this work explains how individual Kenyon cells can integrate multiple signals in the brain to "remember" the particular chemical mixture as a single, distinct odor .

Turner will next try to determine "what controls which claws are connected, and how strong those connections are." This will provide insight into how the brain learns to assign a specific mix of chemicals as defining a particular scent. But beyond simple odor detection, the research has more general implications for learning. For Turner, the question driving his work forward is: what in the brain changes when you learn something?

The research described in this release was supported by the Elisabeth Sloan Livingston fellowship from the Watson School of Biological Sciences. and the US National Institutes of Health grant R01 DC010403-01A1.


Backpropagation

I will defer to this great textbook (online and free!) for the detailed math (if you want to understand neural networks more deeply, definitely check it out). Instead we will do our best to build an intuitive understanding of how and why backpropagation works.

Remember that forward propagation is the process of moving forward through the neural network (from inputs to the ultimate output or prediction). Backpropagation is the reverse. Except instead of signal, we are moving error backwards through our model.

Some simple visualizations helped a lot when I was trying to understand the backpropagation process. Below is my mental picture of a simple neural network as it forward propagates from input to output. The process can be summarized by the following steps:

  • Inputs are fed into the blue layer of neurons and modified by the weights, bias, and sigmoid in each neuron to get the activations. Misal üçün: Activation_1 = Sigmoid( Bias_1 + W1*Input_1 )
  • Activation 1 and Activation 2, which come out of the blue layer are fed into the magenta neuron, which uses them to produce the final output activation.

And the objective of forward propagation is to calculate the activations at each neuron for each successive hidden layer until we arrive at the output.

Now let’s just reverse it. If you follow the red arrows (in the picture below), you will notice that we are now starting at the output of the magenta neuron. That is our output activation, which we use to make our prediction, and the ultimate source of error in our model. We then move this error backwards through our model via the same weights and connections that we use for forward propagating our signal (so instead of Activation 1, now we have Error1 — the error attributable to the top blue neuron).

Remember we said that the goal of forward propagation is to calculate neuron activations layer by layer until we get to the output? We can now state the objective of backpropagation in a similar manner:

We want to calculate the error attributable to each neuron (I will just refer to this error quantity as the neuron’s error because saying “attributable” again and again is no fun) starting from the layer closest to the output all the way back to the starting layer of our model.

So why do we care about the error for each neuron? Remember that the two building blocks of a neural network are the connections that pass signals into a particular neuron (with a weight living in each connection) and the neuron itself (with a bias). These weights and biases across the entire network are also the dials that we tweak to change the predictions made by the model.

This part is really important:

The magnitude of the error of a specific neuron (relative to the errors of all the other neurons) is directly proportional to the impact of that neuron’s output (a.k.a. activation) on our cost function.

So the error of each neuron is a proxy for the partial derivative of the cost function with respect to that neuron’s inputs. This makes intuitive sense — if a particular neuron has a much larger error than all the other ones, then tweaking the weights and bias of our offending neuron will have a greater impact on our model’s total error than fiddling with any of the other neurons.

And the partial derivatives with respect to each weight and bias are the individual elements that compose the gradient vector of our cost function. So basically backpropagation allows us to calculate the error attributable to each neuron and that in turn allows us to calculate the partial derivatives and ultimately the gradient so that we can utilize gradient descent. Hurray!


Learning From Mistakes: Neurons Which Catch Our Mistakes and Correct Our Behavior Identified

Summary: Researchers identified specific neurons in the medial prefrontal cortex, called self monitoring error neurons, that fire immediately after people make a mistake.

Everyone makes little everyday mistakes out of habit–a waiter says, “Enjoy your meal,” and you respond with, “You, too!” before realizing that the person is not, in fact, going to be enjoying your meal. Luckily, there are parts of our brains that monitor our behavior, catching errors and correcting them quickly.

A Caltech-led team of researchers has now identified the individual neurons that may underlie this ability. The work provides rare recordings of individual neurons located deep within the human brain and has implications for psychiatric diseases like obsessive-compulsive disorder.

The work was a collaboration between the laboratories of Ralph Adolphs (PhD 󈨡), Bren Professor of Psychology, Neuroscience, and Biology, and the Allen V. C. Davis and Lenabelle Davis Leadership Chair and director of the Caltech Brain Imaging Center of the Tianqiao and Chrissy Chen Institute for Neuroscience and Ueli Rutishauser (PhD 󈧌), associate professor of neurosurgery, neurology, and biomedical sciences, and Board of Governors Chair in Neurosciences at Cedars-Sinai Medical Center.

“Many people know the feeling of making a mistake and quickly catching oneself–for example, when you are typing and press the wrong key, you can realize you made a mistake without even needing to see the error on the screen,” says Rutishauser, who is also a visiting associate in Caltech’s Division of Biology and Biological Engineering. “This is an example of how we self-monitor our own split-second mistakes. Now, with this research, we know which neurons are involved in this, and we are starting to learn more about how the activity of these neurons helps us change our behavior to correct errors.”

In this work, led by Caltech graduate student Zhongzheng (Brooks) Fu, the researchers aimed to get a precise picture of what happens on the level of individual neurons when a person catches themselves after making an error. To do this, they studied people who have had thin electrodes temporarily implanted into their brains (originally to help localize epileptic seizures). The work was done in collaboration with neurosurgeon Adam Mamelak, professor of neurosurgery at Cedars-Sinai, who has conducted such electrode implantations for clinical monitoring of epilepsy for over a decade and closely collaborated on the research studies.

While neural activity was measured in their medial frontal cortex (MFC), a brain region known to be involved in error monitoring, the epilepsy patients were given a so-called Stroop task to complete. In this task, a word is displayed on a computer screen, and the patients are asked to identify the color of the text. Sometimes, the text and the color are the same (the word “green” for example, is shown in green). In other cases, the word and the color are different (“green” is shown in red text). In the latter case, the correct answer would be “red,” but many people make the error of saying “green.” These are the errors the researchers studied.

The measurements allowed the team to identify specific neurons in the MFC, called self-monitoring error neurons, that would fire immediately after a person made an error, well before they were given feedback about their answer.

For decades, scientists have studied how people self-detect errors using electrodes placed on the surface of the skull that measure the aggregate electrical activity of thousands of neurons. These so-called electroencephalograms reveal that one particular brainwave signature, called the error-related negativity (ERN), is commonly seen on the skull over the MFC right after a person makes an error. In their experiments, Fu and his colleagues simultaneously measured the ERN as well as the firing of individual error neurons.

Researchers in the Adolphs laboratory at Caltech have discovered that certain types of neurons called error neurons are more active when we make a mistake. Take the Stroop test and see how you fare. NeuroscienceNews.com image is adapted from the CalTech news release.

They discovered two fundamental new aspects of the ERN. First, an error neuron’s activity level was positively correlated with the amplitude of the ERN: the larger the ERN for a particular error, the more active were the error neurons. This finding reveals that an observation of the ERN–a noninvasive measurement–provides information about the level of activity of error neurons found deep within the brain. Second, they found that this ERN-single-neuron correlation, in turn, predicted whether the person would change their behavior–that is, if they would slow down and focus more to avoid making an error on their next answer. If the error neurons fired but the brain-wide ERN signature was not seen or was weak, the person might still recognize that they made an error, but they would not modify their behavior for the next task. This suggests that the error neurons need to communicate their error detection to a large brain network in order to influence behavior.

The researchers found further specific evidence for parts of the circuit involved.

“We found error neurons in two different parts of the MFC: the dorsal anterior cingulate cortex (dACC) and the pre-supplementary motor area (pre-SMA),” says Fu. “The error signal appeared in the pre-SMA 50 milliseconds earlier than in the dACC. But only in the dACC was the correlation between the ERN and error neurons predictive of whether a person would modify their behavior. This reveals a hierarchy of processing–an organizational structure of the circuit at the single-neuron level that is important for executive control of behavior.”

The research could also have implications for understanding obsessive-compulsive disorder, a condition in which a person continuously attempts to correct perceived “errors.” For example, some individuals with this condition will feel a need to repeatedly check, in a short time period, if they have locked their door. Some people with obsessive-compulsive disorder have been shown to have an abnormally large ERN potential, indicating that their error-monitoring circuitry is overactive. The discovery of error neurons might facilitate new treatments to suppress this overactivity.

The researchers next hope to identify how the information from error neurons flows through the brain in order to produce behavioral changes like slowing down and focusing. “So far, we have identified two brain regions in the frontal cortex that appear to be part of a sequence of processing steps, but, of course, the entire circuit is going to be much more complex than that,” says Adolphs. “One important future avenue will be to combine studies that have very fine resolution, such as this one, with studies using fMRI [functional magnetic resonance imaging] that give us a whole-brain field of view.”

In addition to Fu, Adolphs, Rutishauser, and Mamelak, other co-authors are Caltech scientist Daw-An Wu Ian Ross of the Huntington Memorial Hospital in Pasadena and Jeffrey Chung of Cedars-Sinai Medical Center. Funding was provided by the National Institutes of Health, the National Science Foundation, and the McKnight Endowment Fund for Neuroscience.


Biological Neuron vs. Artificial Neuron

Since we have learnt a bit about both biological and artificial neurons we can now draw comparisons between both as follows:

Revision of concepts

Let’s have a short recap of the concepts to remember them for a longer time…

  • A neuron is a mathematical function modelled on the working of biological neurons
  • It is an elementary unit in an artificial neural network
  • Inputs are first multiplied by weights, then summed and passed through a nonlinear function to produce output

And that brings us to the end of our short 5-minute journey…My inbox is always open to solve doubts or taking suggestions on Linkedin or Twitter.


Videoya baxın: Neyronların Aktivləşməsi (Iyul 2022).


Şərhlər:

  1. Cafall

    Məsləhətiniz üçün sizə çox şey söyləmək üçün forumda xüsusi olaraq qeydiyyatdan keçmişəm. Sənə necə təşəkkür edə bilərəm?

  2. Radeliffe

    Everyone is not as easy as it sounds

  3. Winthrop

    Məyus olma! Daha çox əyləncə!

  4. Flyn

    Dəyərli məlumatdır

  5. Haytham

    Düşünürəm ki, onlar səhvdirlər. Bunu müzakirə etməyə çalışaq. PM-də mənə yazın, sizinlə danışır.

  6. Eriq

    Sitayişə layiq



Mesaj yazmaq