site.btaСтрува си да поемем риска с изкуствения интелект, каза Нобеловият лауреат Майкъл Левит

Струва си да поемем риска с изкуствения интелект, каза Нобеловият лауреат Майкъл Левит
Струва си да поемем риска с изкуствения интелект, каза Нобеловият лауреат Майкъл Левит
Проф. Майкъл Левит изнася лекция на 72-ата Среща на Нобелови лауреати с млади учени в Линдау, 25-30 юни. Снимка: Ruth Walz/Lindau Nobel Laureate Meetings

Изкуственият интелект може да бъде добър почти за всичко, каза пред БТА Нобеловият лауреат Майкъл Левит. Роденият в Южна Африка биофизик, който преподава структурна биология в университета Станфорд в САЩ от 1987 г. , е отличен с Нобелова награда за химия през 2013 г. заедно с Мартин Карплъс и Ариех Уоршел  за разработването на мащабни модели за сложни химични системи. Той бе сред 38-те лауреати на най-престижния приз в природните науки, които участвата в 72-ото издание на Срещата на Нобелови лауреати с млади учени в Линдау, Германия, от 25 до 30 юни. 

Проф.Левит изнесе лекция за въздействието на триадата биологичен интелект, човешки интелект и машинен интелект върху иновациите в науката и технологиите и участва в дебат за ролята на изкуствения интелект в медицината.  Изказванията му в полза на изкуствения интелект (ИИ) контрастираха на фона на умерените позиции на колегите му Нобелови лауреати. Проф. Левит обаче не се страхува от ИИ.  
„Броят на хората, които изпитват страх от ИИ, спадна много. В началото доста хора се страхуваха. Но всъщност винаги има страх, навсякъде – че сграда може да падне или да се разбие самолет. Моето разбиране винаги е било, че трябва да опитам, да видя нещата и да преценя. Смятам, че хората ще бъдат много по-умни с изкуствения интелект, а той ще бъде по-добър с хората, затова не виждам причина да има конкуренция”, каза проф. Левит в интервю за БТА по време на форума в Линдау.

Той няма категорично мнение за това дали трябва да бъде регулирано приложението на ИИ. „Може би трябва да има регулация. Ако някъде интернет е регулиран, то е в Китай. Но ние не одобряваме това”, отговори той на въпроса дали трябва се сложат ограничения и предписания за използването на ИИ. 

„Мисля, че с новите технологии има проблеми , например с интернет, когато се използват личните данни на хората. ChatGPТ се справя много добре с писането, така че вероятно може да се използва, за да пише хиляди нежелани съобщения по имейл, но аз така или иначе получавам доста нежелани електронни съобщения и това не ме тревожи. Казват, че ИИ може да се меси в изборите, но не е нужно някой толкова умен да пише съобщения, за да влияе. Но много по-важно е, че ИИ може да направи всички по-умни. И това е хубаво.  А пък ако не искаме да бъдем подмамени, можем да попитаме дали да отворим имейл от непознат”, каза проф. Левит.

Той съветва хората да задават въпроси на ИИ, да играят с него. „Може да попитате каква прическа да си направите и отговорът може да не е много личен, защото все пак ChatGPТ не знае в какво състояние е косата ви в момента, но отговорът със сигурност ще ви накара да се замислите. А това е много хубаво”, добави той.

Според него ИИ все още не може да се меси в живота на хората и на въпроса как може да се противодейства на това, той отговори, че вероятно в бъдеще машинният интелект би могъл да влияе, но  вероятно някой човек ще стои зад това. 

„В моята работа използвам постоянно компютри. Всички ние сега смятаме, че книгите са нещо добро, но когато започва отпечатването на книги, те са били забранявани, спирани”, каза проф. Левит. Той спомена намесата на интернет в изборите в САЩ или някои други страни, но „вредата от дезинформацията не е като от Втората световна война например”. 

„Имаме много проблеми, създавани от хора. ИИ има потенциал да ни направи по-добри хора. Фейсбук няма потенциал да ни направи по-добри хора, а ИИ може да бъде добър за почти всичко. Затова си струва да поемем риска. Ние постоянно рискуваме”, каза пред БТА Нобеловият лауреат Майкъл Левит. 

/РБ/

news.modal.header

news.modal.text

Към 11:33 на 19.05.2024 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация