Акт за изкуствения интелект

site.btaИзкуственият интелект между правото, риска и човека: Европа задава рамката, България търси посоката

Изкуственият интелект между правото, риска и човека: Европа задава рамката, България търси посоката
Изкуственият интелект между правото, риска и човека: Европа задава рамката, България търси посоката
Снимка: AP/Richard Drew, архив

Две различни гледни точки – юридическа и технологично-обществена – очертават една и съща картина: Европа изгражда първата в света цялостна регулаторна рамка за изкуствения интелект, но има опасност България да влезе в този процес с реални рискове от институционално или друго изоставане, а поведението на бизнеса, образованието и администрацията у нас може да бъде определено като „високорисково“. 

В интервю за БТА адвокат Атанас Костов, управляващ съдружник на кантора „ЮСАУТОР“, разглежда Регламента за изкуствения интелект (AI Act) като фундаментална промяна в правото – акт, който за първи път регулира самите алгоритми според риска, който носят за човека и обществото. Той предупреждава, че липсата на национална рамка, подготвени съдилища и експерти може да доведе до хаотично и репресивно правоприлагане, което да удари иновациите и бизнеса. Според него Закондателният акт за изкуствения интелект (AI Act) неизбежно ще създаде нова правна специализация – „право на изкуствения интелект“, а човешкият надзор ще остане ключов елемент, независимо от навлизането на автоматизацията в правосъдието и администрацията. 

Костов подчертава, че законът поставя човека в центъра чрез механизми за прозрачност, човешки надзор и сертификация, но предупреждава за сериозни рискове в България: липса на експерти, неясноти в дефинициите, отсъствие на национални подзаконови актове и неподготвеност на съдилищата. Като адвокат с дългогодишна практика в спорове по интелектуална собственост, конкуренция, интернет право и защита на онлайн бизнеси той вижда пряка опасност неправилното правоприлагане да доведе до репресии над компании и иновации. 

От своя страна експертът по киберсигурност Ясен Танев поставя акцента върху практическата страна на регулацията и върху човешкия фактор. Той подчертава, че Европа е избрала различен път от САЩ и Китай – път, в който етиката и човекът са в центъра. Танев предупреждава за липсата на „AI хигиена“ в България, за масовото и рисково използване на генеративни модели без оценка на въздействието и за илюзията, че компаниите имат време до 2026 г., при положение че ключови разпоредби на AI Act започват да се прилагат още през август 2025 г. Той разглежда AI Act като част от по-широка регулаторна екосистема, заедно с DORA, NIS2, Акта за киберустойчивост и Акта за данните, и настоява, че устойчивостта е въпрос на избор – и за бизнеса, и за държавата.

И двамата събеседници се обединяват около извода, че най-големият дефицит на България не е в инфраструктурата, а в компетентността – в подготвените хора, в институционалния капацитет и в способността обществото да направи осъзнат избор как да използва изкуствения интелект. Без това рискът не е просто технологичен, а демократичен и икономически, подчертават те.

Следват пълните текстове на интервютата:

- Реагира ли Европа адекватно и бързо на предизвикателствата, свързани с развитието на изкуствения интелект и с какво Актът за изкуствения интелект се различава от предишни технологични регулации, като GDPR и DSA?

Атанас Костов: Законодателният регламент за изкуствения интелект (от англ. AI Act) е уникален по своя всеобхватен характер европейски нормативен акт, защото създава юридически правила за класифициране на онлайн системите на базата на технологичния риск, който те представляват за гражданите. За разлика от GDPR, който се фокусира върху защитата на личните данни, или Акта за цифровите услуги, който регулира дигиталните платформи и съдържанието, AI Act задава ясни юридически рамки за разработчици и потребители на ИИ технологии, включително забрани за системи с неприемлив риск, изисквания за прозрачност и сертификация на високорискови системи, т.е. формулира правилата за правоприлагане по темата „изкуствен интелект“.

Регламентът за изкуствения интелект не е просто още един общоевропейски закон — той променя парадигмата. Докато GDPR регулира защитата на лични данни, а Актовете за цифровите услуги и пазари (съответно DSA и DMA) визират услуги и цифрови платформи, AI Act регулира самите системи за изкуствен интелект според тяхната цел, употреба и потенциален риск, като думата „риск“ е водеща. Законът въвежда критерии за риск-базиран подход: системите, работещи с изкуствен интелект, се класифицират съгласно риска, който предполагат: минимален, ограничен, висок или неприемлив. Именно тази логика формира и структурата на Регламента спрямо други нормативни актове, уреждащи различни аспекти на онлайн средата.

По същество това означава, че изкуственият интелект вече не се третира просто като софтуер, а като регулируем продукт/система с изисквания за документация, прозрачност, отговорност и безопасност. Това прави Акта за изкуствения интелект качествено различен нормативен акт от GDPR и други подобни, да ги наречем „традиционни технологични регулации“.

Ясен Танев: Много е важно първо да разберем, че глобалната надпревара в изкуствения интелект не тече, тя спринтира. Има два големи лидера с напълно различни цели и регулациите им са подчинени именно на тези цели. 

В Съединените щати всичко е движено от капитала, от бързата печалба и от рисковите инвестиции. Там регулацията има една основна задача – да стимулира рисковия капитал да се насочва към тази сфера, като същевременно се ограничава износът на ключови технологии към конкурентни държави.

От другата страна е вторият хегемон – Китай. Там регулацията и доктрината са изцяло в услуга, цел и полза на Китайската комунистическа партия и на разбирането ѝ за „благо за народа“. Това е философия, коренно различна от американската.

Хубавото при Европа е, че тя не е нито американският „нечовешки пазар“, нито източната философия на Китай. Европа трябваше да има собствено лице. И именно това лице виждаме в Актa за изкуствения интелект – един изкуствен интелект, в който хората имат място.

Тази регулация ми харесва, защото ако я четем спокойно и без страх, ще видим, че човекът е поставен в центъра. Всеки, който иска да работи в Европа, трябва да се съобразява с нашите европейски етични норми. Етиката не е периферен елемент – тя е сърцевината.

Много важно е и това, че във всички тези регулации присъства рисково-базиран подход. Затова смятам, че Актът за изкуствения интелект е наистина европейски. Това, което трябва да направим, е да не плашим хората. Политиките и процедурите са написани основно от юристи, но те трябва да вървят ръка за ръка с технологични мерки, обяснения и експертна оценка на риска.

- Доколко този подход е приложим в реалността на българския бизнес, който вече използва автоматизация и машинно обучение?

Ясен Танев: В момента в България има сериозен проблем с липсата на така наречената „AI хигиена“. Консумира се всякакъв изкуствен интелект, подават се всякакви данни и се стига до интелектуално и дори психологическо объркване - и в моделите, и при потребителите.

Поведението на бизнеса, образованието и администрацията в момента може спокойно да бъде определено като високорисково. Причината е проста - не се говори по темата разбираемо. А логиката е много елементарна.

Ако говорим за публична администрация - Институтът за публична администрация, например, е написал дори етичен кодекс за използване на изкуствен интелект и призовава: преди да започнете да използвате изкуствен интелект, направете оценка на въздействието. Това е нормално. Това е практика, която в държавата по принцип съществува - правят се оценки на въздействието и на законите.

Обаче българските бизнеси, гражданите и образованието - понеже още не усещат тази рамка (не че и държавата я усеща напълно, но поне пренаписва един стратегически документ) - не разбират едно ключово нещо: когато използват модели, на които подават данни, моделите „взимат“ тези данни и не ги забравят. Никога.

Това означава, че преди да дадете каквито и да било данни на модел, трябва да си зададете въпроса: „Бих ли бил готов тези данни да бъдат излъчени по националното радио, БТА да ги сподели спокойно, или да ги публикувам в интернет със свободен достъп?“. Ако имате и най-малкото съмнение, че не бихте го направили, тогава си задайте следващия въпрос: „Бих ли бил готов да ги споделя с изкуствен интелект, който потенциално се използва от целия свят?“ И оттук нататък моментът вече е такъв – и това го пише и в Акта за изкуствения интелект, който стъпва и върху стандарт – ISO 42001 - който казва: преди да започнете изобщо да си мислите да използвате системи, използващи изкуствен интелект, трябва да направите оценка на въздействието. Тоест, преди да продължите напред и една стъпка, трябва да си отговорите: как това ще се отрази на човека, на обществото, на индустрията и на околната среда? Ако там срещнете риск - спрете!

Следващият въпрос е с какви данни ще го захраните и кой може да има достъп до тези данни? Ако не сте сигурни какви са данните или кой ще ги получи - спрете отново.

Третата стъпка е: доколко тези данни са готови да бъдат обработвани. Защото масово има данни, които не са готови - не са машинночетими, не са структурирани, или пък съдържат дискриминативна, подвеждаща или невярна информация. Това означава, че не само няма да постигнете ефект, а ще „заразите“ световния интелект с глупости, ако споделяте такива данни.

И продължавайки нататък, ако още не сте се спрели при тези въпроси, идва следващият: има ли кой да поддържа това? Защото ако започне да работи, то трябва да бъде наблюдавано. Един ненаблюдаван изкуствен интелект, който е в началната си фаза и още няма автономно съзнание, е като да оставите чинчила в къщата си без надзор за една седмица и без храна. Тя ще нагризе всичко, ще направи бели и като се върнете, ще бъдете съсипани – защото проектът ви за „нов дом“ ще е унищожен.

Ако минете по тези стъпки и някъде си кажете: „Съмнявам се“ - спрете и премислете! Ако някъде си кажете „не“ - спрете! Само около 5 процента от проектите с изкуствен интелект имат успех - и не заради проблеми с интернет или технологиите, а заради грешната преценка на хората.

- В някои чат платформи има опция данните да не бъдат използвани за обучение. Това не е ли достатъчна защита?

Ясен Танев: Нека да обясня как работят моделите и техните собствени „слоеве“ и елементи. Много често те са организирани около абонаментен модел, който по логика много прилича на този при нелегалните стимуланти. Първоначално ви дават безплатен достъп. Ако „се вържете“, започват да ви искат малка такса. Когато започнете да ставате зависими, вече искат услуги от вас - за да продължите да получавате продуктите на същата цена. А ако в един момент решите, че здравето ви е важно, тогава започвате да плащате за премиум услуга.

Същата логика съществува и при изкуствения интелект. Безплатният достъп е създаден с ясна цел - да се събират данни, за да се обучават моделите и да се следи поведението на потребителите. В същото време тези безплатни версии работят по-бавно и имат сериозни ограничения - обикновено точно в моментите, в които са ви най-нужни.

Платените планове вече събират вашите данни по систематичен начин. Те не ви дават непременно много по-голям капацитет, но истината е, че в огромна степен също „се хранят“ с вашите данни, за да могат моделите да се дообучават. Следващото ниво са професионалните планове - те са по-скъпи, изискват ангажимент за устойчива връзка, обикновено са за поне една година и за няколко човека. При тях вече големите модели не се обучават директно с вашите данни. 

Проблемът е, че при тези нива на контрол, които виждаме при много платформи и услуги, често липсва достатъчна прозрачност - както по отношение на самия модел, така и по отношение на валидирането му. Затова, когато решите, че искате да работите на следващо ниво и вече сте осъзнали целия път, за който говорим, логичната стъпка е да преминете към собствени инстанции на изкуствен интелект, разположени в облака. Такива решения предлагат „Майкрософт“ (Microsoft), „Гугъл“ (Google), а „Амазон“ (Amazon) също активно работи в тази посока.

Тогава вече имате фин контрол върху поведението на модела - кой за какво говори, дали се отклонява от зададените рамки, как се защитава. Тези защитни механизми се наричат guardrails - защитни стени, които ви дават значително по-голям контрол. Разбира се, този контрол струва повече. 

А когато решите, че темата е наистина критична - например занимавате се сериозно с киберсигурност и анализирате данни от логове от събития, за да могат екипите да реагират бързо - тогава вече следва да инвестирате в собствена инфраструктура. Това означава сървър за около 100 000 евро, с поне две карти със собствени графични процесори, обучение на частен модел с отворен код и разполагането му в дейта център. В този момент разходите ви от 20 или 200 долара на месец скачат до няколко хиляди долара.

Но истината е, че всички професионални инструменти си заслужават парите. Именно затова оценката - кога, защо и на какво ниво да използвате изкуствен интелект - е абсолютно задължителна.

- Как се вписва AI Act в по-широката европейска регулаторна рамка – GDPR, DSA, DMA, DORA, NIS2? Получава ли се реална „регулаторна екосистема“?

Атанас Костов: AI Act е замислен като допълнение, а не като замяна на съществуващите регулации в областта на онлайн технологиите. Целта е изграждане на правна екосистема, която да създаде доверие у европейските граждани - GDPR защитава личните данни, DSA и DMA регулират платформите и конкуренцията, а AI Act се грижи за безопасността и етичността на системите, функциониращи под изкуствен интелект. 

Разбира се, съществува риск от ненужно усложняване и припокриване, но европейските институции предвиждат по-координиран подход чрез механизми за надзор, съвместни регистри и съдебна практика.

Затова подчертавам: AI Act трябва да се разглежда в контекста на цялата правна рамка на ЕС - за защита на данни, цифрови услуги, конкуренция, стандарти и др. Той не отменя предишните регулации, а ги допълва. Така ще се създаде интегрирана „регулаторна екосистема“, в която различните норми се допълват логично, технологично и юридически. 

В същото време рискът от нормативно припокриване е реален, особено ако не се гарантира координация между институциите, ясно разпределение на отговорностите и правилно структурирана бъдеща съдебна практика. Компаниите и юристите ще трябва да следят както AI Act, така и GDPR, DSA и DMA - това е нов вид секторно технологично право, по което в момента няма подготвени специалисти, защото изисква познания не само в правото, но и в технологиите.

Най-новите технологии във финансовия и публичния сектор например ще са комбинация от блокчейн и изкуствен интелект (покупко-продажба на акции, транспортни билети, плащане на данъци, гласуване и др.). В много държави от ЕС вече има съдебна практика за управление на инструменти в блокчейн среда от изкуствен интелект. Знам, че това звучи шокиращо, но в Англия, Франция, Италия и Швейцария такива дела вече са факт.

Българският съд все още не е чувал за тях. Националните съдилища трудно се справят дори с тривиални спорове за марки, дизайни, авторски права и домейни, камо ли със сложни дела за изкуствен интелект, от който много съдии нямат представа.

Ясен Танев: Много добър въпрос, и точно така трябва да се мисли. Организациите трябва да познават регулаторната рамка в нейната цялост, за да могат да правят интегрирано внедряване, а не да гледат всеки акт поотделно.

Начинът, по който аз виждам връзката, е следният. Актът за Изкуствения интелект по същество пази хората от други хора, които могат да злоупотребят с технологията. В същото време самият изкуствен интелект събира данни – не само от разговори, но и от телеметрия, от устройства, от крайни потребителски елементи.

Когато изкуственият интелект събира данни от устройства и крайни потребителски устройства, тогава Актът за данните (Data Act) влиза пряко в действие. Когато изкуственият интелект работи върху крайни устройства и трябва да бъде използваем от хора с различни дефицити, тогава вече навлизаме в Акта за достъпност.

Когато изкуственият интелект е вграден в свързани устройства - термометри, умни автомобили, умни телевизори, касови апарати и изобщо устройства, които комуникират помежду си - тогава те трябва да отговарят на изискванията за киберсигурност и на Акта за киберустойчивост.

Ако пък обработката на данни е свързана с модели, които се намират на сървъри, тогава вече влизаме във веригата на доставчиците на облачни услуги, което попада и в обхвата на Директивата NIS2. 

И когато говорим конкретно за Европейския регламент за дигитална оперативна устойчивост (DORA), всеки участник във финансовия и застрахователния сектор, който използва системи с изкуствен интелект за профилиране - и, не дай си Боже, взема решения за застраховки, обезщетения или по друг начин влияе върху живота, здравето и съдбата на крайния индивид - попада едновременно под действието на Акта за изкуствения интелект. А DORA, от своя страна, се интересува конкретно от киберрисковете. Така че доставчиците на решения с изкуствен интелект също влизат в обхвата. 

И всичко това се подрежда в една смислена, свързана екосистема от регулации, стандарти за киберсигурност и правила за управление на данните. Това не са отделни парчета, а части от една обща логика.

- Г-н Костов, Вие говорите за философията зад закона - за баланса между човека и машината. Смятате ли, че европейското право успява да постигне този баланс, или има риск от прекомерен контрол, който може да задуши иновациите?

Атанас Костов: Регламентът ясно поставя човека в центъра. Всички високорискови системи трябва да бъдат управлявани от хора, а не автоматично - това е основната философия на AI Act. Целта е да се стимулира иновацията, като същевременно се защитават основните права.

Риск от задушаване на иновациите съществува - днес много процеси в развойната дейност, от лекарствата до автомобилостроенето и космическите технологии, се извършват в значителна степен от изкуствен интелект. Но този риск е балансиран, защото най-важно е съдържанието, което човекът задава на системата.

От гледна точка на правото създаването на ясни правила за стартъпи, работещи с ИИ, както и минимални изисквания за нискорисковите системи, е достатъчно, за да бъде стабилна нормативната рамка и да не се стигне до ситуация, в която технологията „убива правото“.

Една от ключовите идеи на AI Act е човекът да остане в центъра. Затова Регламентът въвежда изисквания за прозрачност, оценка на риска, човешки надзор и отговорност.

Но дали балансът ще се запази, зависи от правоприлагането и съдебната практика. Ако регулацията стане прекалено тежка и неподходяща, рискът от неразбиране от страна на съда е огромен и може да задуши стартиращи проекти. Затова е необходима експертност, гъвкавост и адаптивност от страна на правоприлагащите органи.

Дано съдиите започнат да се обучават в тази сфера. Днес подобна „експертна преквалификация“ в българските съдилища отсъства напълно. Ще го кажа директно - българските съдии са технологично некомпетентни. Делата, свързани с изкуствен интелект, много скоро ще се появят и в България, и тогава този недостатък ще има огромен юридически ефект.

Защо съм толкова сигурен? Днес българските нотариуси извършват множество нарушения на GDPR, като съставят протоколи за удостоверяване на факти онлайн без спазване на изискванията за защита и превенция. Съдът (ВАС и АССГ) вече е постановил няколко решения, които защитават очевидни нарушения. След като има проблеми дори с разбирането на GDPR - сравнително прост акт - представете си какво ще стане с AI Act, където ефектите са много по-тежки.

Познавам българската съдебна система от първо лице, защото като адвокат в сферата на високите технологии ежедневно работя с нея.

- Регламентът наистина поставя човека в центъра – „технология в служба на обществото“. Как ще се гарантира това на практика - чрез надзор, сертификация, етични кодекси или съдебен контрол?

Ясен Танев: Човещината е първата и най-силна гаранция за човешки ориентирания изкуствен интелект в Европа. Но ако погледнем и регулаторната рамка, ще видим, че тя е изградена около рисково-базиран подход, при който рисковете не са дефинирани спрямо машините или капитала, или ролята на Китайската комунистическа партия, а спрямо въздействието върху човека.

Дори при базовите модели - така наречените генеративни модели за общо предназначение, които всички използваме ежедневно - се изисква регистрация с цел прозрачност. Те трябва да гарантират, че моделите им не са дискриминационни или обременени с изкривявания. Това вече го видяхме ясно при сравнение на различни модели - „Дийпсийк“ (Deepseek), „ЧатДжиПиТи“ (ChatGPT), „Джемини“ (Gemini), „Грок“ (Grok), европейския модел „Мистрал“ (Mistral).

При високорисковите приложения логиката е още по-ясна. Ако система с изкуствен интелект взема решения, които могат пряко да повлияят на индивида, тя задължително попада в режима на висок риск. Европа много ясно е казала: когато решение на машина може да засегне човешкия живот, права или съдба, там трябва да има строг контрол и човек в цикъла. 

Атанас Костов:  На практика това ще се гарантира чрез комбинация от мерки: сертификация на високорискови системи, човешки надзор, изисквания за прозрачност, етични кодекси и възможност за подаване на жалби. Освен това Службата на ЕС за изкуствен интелект ще следи стриктно за прилагането на Регламента, включително за точността на оценките и за спазването на правата на хората, като ще съблюдава и правилата на Хартата на основните права.

AI Act предвижда многостепенен механизъм: създават се европейски и национални надзорни органи (вкл. нова структура на ниво ЕС), процедури за оценка на съответствие и сертификация, особено за високорискови системи, както и етични и технически стандарти.

Но този модел: „надзор + сертификация + регулация + стандарти“, може да работи, само ако е подкрепен от квалифицирани експерти, прозрачни процедури и реален административен капацитет. В противен случай рискуваме формални решения без практически ефект.

- Кои са най-големите правни неясноти според Вас при прилагането на регламента у нас - дефинициите, надзорните органи или механизмите за санкции? Или пък липсата на достатъчно квалифицирани експерти?

Атанас Костов: Най-големите предизвикателства ще бъдат свързани с ясното дефиниране на високорисковите системи, ефективния надзор и прилагането на санкции. Липсата на квалифицирани експерти също е сериозен фактор, тъй като оценката на ИИ системи изисква както юридически, така и технически знания.

В този контекст българското правоприлагане в бъдеще трябва да се справи със следните проблеми, които днес не съществуват, но много скоро - буквално утре, ще бъдат на дневен ред:

- Липса на ясни дефиниции и класификации: въпроси като кога една система е „високорискова“, кога е просто „инструмент“, кога трябва да се прилагат строги изисквания. Регламентът дава нормативна рамка на тези понятия, но те трябва да бъдат правилно дефинирани на експертно ниво, за да не се получи репресия над физическо лице или бизнеси, базирани на непознаване на технологичните реалности в детайли;

- Липса на национални подзаконови актове, които да адаптират регламента към българския контекст, което води до правна несигурност;

- Недостатъчен административен и технически капацитет: надзор, сертификация, контрол, оценка изискват ресурси и компетентност;

- Липса на достатъчно квалифицирани юристи и технически специалисти, които да разберат и прилагат AI правото.

А положението в органите за разследване е още по-тежко. Сектор „Компютърни престъпления“ към ГДБОП не разполага със специалисти, които могат да разследват престъпления, извършвани чрез изкуствен интелект. Разкриваемост няма. Жалбите приключват без последствие.

Фермите за компютърни измами по света работят именно чрез изкуствен интелект. Потърпевшите в България са десетки хиляди. Реакцията на прокуратурата и ГДБОП - нулева.

Казвам това като човек, който през последната година е подал десетки сигнали за блокчейн измами, извършени чрез ИИ. Резултатът - нула.

Ясен Танев: Има неясноти, и те започват още от преводите. Затова винаги призовавам - четете актовете на английски, преди да започнете да ги прилагате на български.  

Компетентните органи са определени, но процесът по тяхното реално овластяване и изграждане на капацитет тепърва предстои. Самият процес по осъзнаване на техните отговорности в контекста на специфичните роли за пазарите или секторите, които те ще надзирават, е свързан с изграждане на компетенция. 

Преди няколко дни отбелязахме три години от стартирането на „ЧатДжиПиТи“. Това е много кратък период, ако погледнем колко малко са хората, които реално притежават компетенции за оперативно управление на рисковете, свързани с изкуствения интелект. А именно тези хора са ключови, за да може след това да се стигне до правоприлагане, до санкциониране или до навигиране на процесите. 

Според мен компетентността на един орган не означава просто той да бъде „обявен“ или формално определен. Компетентният орган трябва да инвестира в ограмотяване на поднадзорните си единици и едва след като е провел целенасочени кампании за обучение, осветляване на целите и обясняване на изискванията, тогава може да очаква обратна връзка за изпълнение. И чак след това – при липса на изпълнение – да налага глоби. Това е процес, който тепърва предстои.

И това е наистина ценно, защото в момента, ако говорим за одитори по ISO 42001 – стандарта за системи с изкуствен интелект – аз лично познавам двама в България. Не съм сигурен колко са общо в страната, вероятно около петима, защото това е изключително нов стандарт и изобщо нов начин на мислене. Дори сред хората, които реално са изграждали системи с изкуствен интелект, вероятно само двама от петима наистина разбират дълбочината на темата. Това само по себе си показва колко нова и сложна е тя.

И точно затова моето послание е следното: тази тема не бива да влиза със страх. Тя трябва да бъде обяснявана, „приземявана“ и правена приложима. Ако хората я възприемат като нещо абстрактно и заплашително, ще се стигне до блокаж, а не до развитие.

Големият шанс за България е именно тук. При положение че вече имаме толкова много инфраструктура - изграждат се гигафабрики, инвестират се сериозни средства, имаме и суперкомпютър в София Тех Парк, който продължава да се разраства - реалният дефицит не е в инфраструктурата. Реалният дефицит е в естествения интелект.

А естественият интелект не се създава с бетон и кабели. За него са нужни добра храна, хубаво време и добър климат - в широкия смисъл на думата. България е идеално място за отглеждане на мозъци. 

- България все още няма специализиран Закон за изкуствения интелект, макар че има законопроект. Какви рискове носи това за компаниите, които вече използват AI решения?

Атанас Костов: Логиката сочи, че след като се появи европейски регламент по дадена тема, то своевременно трябва да се изработи и национална правна рамка. По нея в момента дори не се работи, защото експерти по темата буквално няма. Всичко това означава, че компаниите в България ще трябва да се придържат към европейския регламент, което пък от своя страна води до извода, че те ще трябва да внедрят механизми за оценка на риска и прозрачност, дори при липса на национален закон. 

Това може да увеличи административната тежест, като в един момент ще доведе и до налагането на различни видове санкции по Регламента за изкуствения интелект, без да е формирана национална рамка за добри практики на експертно ниво. 

Тази липса ще означава и че компаниите в България ще трябва да се ориентират само по европейските правила - без национални насоки, адаптации и административна подкрепа, като всичко това ще увеличи правната несигурност и може да стимулира „преместване“ на иновации към страни с по-добро регулаторно обслужване (като Румъния например), което няма да е нещо ново за нашата реалност.

Ясен Танев: Аз познавам Божидар Божанов (вносител на законопроекта - б.ред.) и симпатизирам на опита му. Но трябва да сме реалисти - дори и в условията на протестна обстановка внасянето на такъв закон не предполагаше някой да му обърне сериозно внимание в този момент. И независимо от това, че инициативата му е по същество добра, подходът логически трябва да бъде различен.

Ние трябва да тръгнем от момента, в който Актът за изкуствения интелект преминава през поднадзорните и компетентните органи. Именно те трябва първо да изградят собствената си концепция, да направят скрининг на нуждите по сектори и да осмислят ролята си. Едва след това може да се говори за интегриране на национални елементи или допълващо законодателство.

Хубавото при Акта за изкуствения интелект е, че той е директно приложим. Тоест, рамката вече съществува. Спазва ли се? Смятам, че се пренебрегва изключително много. 

Ако ние сами не се грижим за киберсигурността си – защото не искаме да бъдем „мутирани“ дигитално и да се превърнем в част от бот мрежа, която атакува критична инфраструктура - тогава няма как да очакваме някой друг да го направи вместо нас. Ако искаме знанията ни да бъдат защитени, а не разхвърляни по целия свят, и ако искаме да изградим устойчив бизнес, ние трябва съзнателно да направим избор и оценка. 

Този избор е прост, макар и неудобен: важно ли е за мен да бъда цифрово и киберустойчиво предприятие, или в момента искам просто да изкарам бързи пари, без да ме интересува какво ще се случи утре, когато организацията ми се срине или когато данните ми изтекат - и как това ще се отрази на хората, които работят при мен.

Това е въпрос както на бизнеса, така и на държавата, и той е фундаментален. В крайна сметка изборът се свежда до едно: искам ли да оцелея, или не.

- Регламентът забранява системи за социално кредитиране и емоционално разпознаване. Смятате ли, че това е достатъчна защита на основните права на гражданите, или ще има нужда от по-ясни подзаконови актове?

Атанас Костов: Тези забрани са добра първа стъпка, но със сигурност ще бъдат нужни подзаконови актове и технически стандарти, които да детайлизират как се прилагат ограниченията и как се доказва съответствието с правата на гражданите. Предвидените забрани за неприемливи практики - като социално кредитиране, манипулации, непрозрачно профилиране, биометрична идентификация - са важен елемент на защита.  Но самите забрани не гарантират всичко - необходимо е ясно дефинирани подзаконови актове, контрол, санкции и ефективна практика от съда и правоприлагащите органи(кои са те в България не става ясно, защото няма национална регламентация). Без тях забраните могат да останат само формални.

- Как гледате на въпроса за отговорността при грешка на алгоритъм – кой отговаря, ако ИИ вземе неправилно решение в медицината, правото или администрацията?

Атанас Костов: Отговорността ще лежи върху разработчиците и доставчиците на високорисковите системи, като Регламентът предвижда ясни механизми за отчетност и документация. Човешкият надзор остава ключов, така че институциите и специалистите, които използват ИИ, също ще носят частична отговорност.

AI Act предвижда разпределена отговорност: производителят/доставчикът носи отговорност за безопасността и съответствието; операторът/ползвателят - за правилната употреба; а надзорните органи - за контрол и санкции. Тук ще попитам пак: кои са тези надзорни органи в България? До момента - към края на 2025, няма богата съдебна практика, така че реалната отговорност ще се оформя с първите съдебни дела. Това означава, че текущият период е решаващ: балансът между отговорност, иновации и защита все още се изгражда, надявам се и по национален ред, но не съм чул в България да се работи по национален закон по темата, изграждане на административна рамка, санкциониращи органи и т.н.

- Г-н Костов, Вие изразявате убеденост, че в бъдеще ИИ може да замени съдии, частни съдебни изпълнители и нотариуси. Това провокация ли е, или реална перспектива? И какво би означавало това за принципа на човешкия надзор, заложен в закона?

Атанас Костов: Това е реална перспектива, особено за рутинни и логически задачи. Човешкият надзор ще се запази като гаранция за правата на гражданите, но машините ще могат да извършват първичен анализ и да автоматизират процедурите, повишавайки ефективността на правосъдието и администрацията.

Повечето адвокатски кантори и ЧСИ вече по един или друг начин въведоха работа с изкуствен интелект, като подчертавам, че качеството на материала и задачите, които са му зададени водят и до съответния положителен или отрицателен материал. Като патентен адвокат ще кажа и че изкуствения интелект навлезе много и в сферата на медицината( ранна диагностика), фармацията, разработката на лекарства, изследователската и развойна дейност при патентоването на машини и съоръжения и т.н.

- Според Вас ще се стигне ли до необходимост от нова философия на правото - такава, която отчита ролята на машината като правен субект? Ще се наложи ли юристите в България да развиват нова специализация - „право на изкуствения интелект“ - по аналогия с ИТ правото преди 15 години?

Атанас Костов: Определено. ИТ правото вече е утвърдена специалност в юридическите професии, а с въвеждането на AI Act ще се наложи нова дисциплина - „право на изкуствения интелект“. Както казах и в началото, юристите ще трябва да разбират не само законодателството, но и функционирането на алгоритмите на технологично ниво, за да осигурят ефективно правоприлагане. В повечето държави в съдилищата се създават специализирани състави, които да натрупват практика и знания точно във високотехнологичния сектор, за да постановяват решения с презюмираната адекватност. Да се надяваме, че някой ден и българската съдебна система ще узрее за тези добри практики, вместо да се бори с изводи от типа: „дали един домейн е търговска марка или не“? „Борбата“ по тази тема все още продължава и не е ясен отговорът.

- Какво бихте посъветвали българските компании и юристи - как да се подготвят за 2026 г., когато регламентът ще започне да се прилага напълно?

Атанас Костов: Съветът ми е да започнат подготовка още сега - да обучават специалисти по право на изкуствения интелект, да внедрят механизми за оценка на рисковете от използваните системи в бизнеса, производството, социалната среда, да се научат да ползват механизми за прозрачност и технологичен надзор, и да разработят вътрешни етични кодекси и екипи с хибридни компетентности онлайн, защото в много от случаите именно човекът използва изкуствения интелект с незаконосъобразни цели. Тези стъпки ще осигурят плавен преход към новата правна реалност и ще намалят риска от санкции днес, когато по един или друг животът ни пряко е опосреден от изкуствения интелект. 

Ясен Танев: Това е едно от нещата, които искрено ме забавляват. Понеже навсякъде се повтаря, че „актът влиза в сила през август 2024 г.“, масово хората автоматично си слагат две години напред и казват: август 2026 г. И си мислят, че дотогава имат време (Актът влиза в сила през август 2024 г. с публикуването му в Официалния вестник на Европейския съюз. Посочваният двугодишен срок произтича от общото правило за прилагане на по-голямата част от задълженията по регламента. Основните изисквания към бизнеса и публичната администрация, включително тези за високорисковите системи с изкуствен интелект, започват да се прилагат 24 месеца след влизането му в сила - бел. ред.). Само че има една конкретна дата, за която почти никой не говори – 2 август 2025 г. Именно на 2 август 2025 г. влизат в приложение онези разпоредби от Акта за изкуствения интелект, които казват, че всеки, който използва GPT-подобни системи - тоест системи за общо предназначение с генеративен изкуствен интелект, заедно с техните модели - трябва да мине през оценка и регистрация.

И въпросът изобщо не е „как да се подготвя до 2026 г.“. Защото тези, които използват „ДжиПиТи“, вече са вътре. А това е масово явление - чатботове, дигитални асистенти, voice ботове, каквото се сетите. Погледнете сайтовете на банки, телекоми, публични администрации, бизнеси – където и да погледнете, ще видите такива решения, често базирани именно на GPT-модели.

Е, те от 2 август 2025 г. вече са в регулация. Да, Европа в момента леко се „замотава“ с високорисковите компоненти - защото там въпросът е колко строго да бъдат регулирани и в какъв момент. Има сериозно лоби, особено когато говорим за здравеопазване, има и известна съпротива. Но тези неща ще се случат. До август 2026 г. рамката ще бъде напълно доизградена.

Но искам да кажа -„късно е“, не е време за отлагане. И това е въпрос на желание за оцеляване на бизнеса. 

- Вие, а и много експерти, споделяте тезата, че прекомерната регулация може да постави Европейския съюз в ролята на ползвател, а не на създател на изкуствен интелект. Къде минава границата между разумния контрол и свръхрегулацията?

Ясен Танев: Истината е, че който търси огромна свобода, свързана с финансови потоци, най-добре да прави бизнес в Съединените щати. Който иска много пари от комунистическата партия и е готов да работи изцяло за нея - може да отиде в Китай. А който се интересува от човека като компонент на бъдещето, логично е да работи в Европа. 

И именно затова според мен ние трябва да направим едно префокусиране - от изкуствения интелект на машините към изкуствения интелект на човешките мозъци, към човешката интелигентност. Регулациите не ограничават силата на човешкия ум. Това, което се опитват да направят, е да вкарат етичния компонент в начина, по който създаваме и използваме технологията.

Проблемът понякога идва от конфликта между тази цел и регулативната тежест, когато тя е наблюдавана от администрацията и се превръща в тежка, формална документация. Това наистина може да убие всичко. Но решението не е липса на регулация. Въпросът не е дали да имаме регулация или не, а каква държава имаме.

Кое е по-страшно - регулацията или репресивната държава? Според мен умната регулация може да даде устойчивост, докато репресивната държава - дори и без много регулации, но с липса на компетентност - може да съсипе всичко. Именно затова органите, които ще прилагат регулациите за изкуствения интелект в България, не трябва просто да бъдат формално определени, те трябва да влязат в реално действие, да бъдат овластени и да придобият капацитет.

И тук е голямото ни предизвикателство - тези органи трябва като хора да прилагат правилно целите на регулацията. Защото виждаме какво се случи с GDPR и защитата на личните данни - рамката стана изключително правно тежка, а ефективността ѝ често е нулева. В същото време, ако има инциденти с лични данни във Франция или Германия, или са засегнати немски и френски граждани - независимо къде в Европейския съюз - реакцията е съвсем различна.

В България често виждаме друг модел: ако български гражданин е ядосан на даден бизнес, той започва да го „обстрелва“ - сезира Комисията за защита на личните данни, обажда се на НАП, на Инспекцията по труда, а ако има храни - и на Българската агенция по безопасност на храните. Регулацията се използва като инструмент за отмъщение, а не като механизъм за защита и за предотвратяване на такива моменти на натрупан гняв.

- Институтът по публична администрация е изготвил проучване за готовността на държавната администрация за използване на изкуствен интелект. Това е изследване, което измерва нагласите, нивото на подготовка и степента на приемане на технологии в публичния сектор. Какво показват резултатите?

Ясен Танев: Институтът по публична администрация разби един устойчив стереотип - че публичната администрация е бавна и не гледа в бъдещето.  

Изследването показа, че в българската публична администрация има много малка група - под 15 процента, които са крайно негативно настроени към темата за изкуствения интелект. Има и друга малка, но ясно очертана група - около 20 процента - които са силно мотивирани да използват изкуствен интелект в работата си. А цялата останала част попада в т.нар. „сива зона“ - хора, които нито отричат, нито активно прегръщат технологията.

Интересното е, че този индекс не остана само български. Той беше приет и от още няколко държави, като често сравняваме ситуацията с Хърватия. Там картината е малко по-различна - червената зона е по-голяма, но и зелената зона е по-голяма. Тоест има повече хора, които са категорично против, но и повече хора, които са категорично „за“.

Това сравнение е много показателно. То показва, че в България проблемът не е масова съпротива срещу изкуствения интелект, а липса на яснота и увереност. А това означава, че именно работата със „сивата зона“ е ключът - чрез обучение, обяснение и даване на избор, а не чрез натиск или страх.

В Хърватия, независимо че общата стойност на индекса е по-ниска - защото ниските показатели дърпат надолу - страната вече се е определила. Там е ясно кои ще бъдат напред, лидерите са разпознаваеми и са силно подкрепени. Те са се засилили и са поели ролята си.

За България урокът е друг и той е много важен. Ние сме в момент на голяма промяна, но все още използваме думи като „може би“ и говорим с условно и вероятностно наклонение. И това не е случайно, защото България все още не се е определила накъде иска да върви. А определяне без управление на риска би било голям проблем.

Затова ключовият фокус трябва да бъде сивата зона. Тази сива зона трябва да бъде обучена, подкрепена и осъзната. И именно там може да се случи нещо наистина силно.

Тук идва и друг важен детайл, който досега не сме обсъждали в дълбочина. Институтът за изкуствен интелект, който създадохме заедно със съмишленици и хора, с които съм работил в образованието, стартира и вече приключи разработването на индекс за готовността на българските училища за внедряване на изкуствен интелект. В момента сме на финалната права и предстои публикуване на доклада.

Най-интересното за нас беше, че съдбата сякаш ни даде знак – стойността на индекса е 42. А както знаем, това е „смисълът на живота“. Но отвъд символиката данните са много показателни.

Съвсем накратко - на институционално ниво има по-висока степен на готовност. Институциите демонстрират увереност. На персонално ниво учителите ясно показват, че имат нужда от обучение, но в същото време имат и силна мотивация. И това е изключително силна комбинация. 

Защо? Защото когато институцията е готова, а учителите имат желание да посрещнат тази готовност, това вече е реален потенциал. Това е онзи потенциал, който може да промени статуквото на интелигентността в средното и висшето образование в България.

- Как трябва да се работи с този голям сегмент „сива зона“, така че да се избегне технологичният шок през следващите години, когато изкуственият интелект вече ще бъде навсякъде?

Ясен Танев: Ние говорим от години за технологична дискриминация и сегрегация. Това звучи малко пророчески, но всъщност е много практично. Трябва да можем да представим технологията ясно и да дадем избор на хората.

Да не искаш да използваш технологията или тя да не е приложима за работата ти - особено когато говорим за оценка на въздействието - е напълно правилен подход. Но това трябва да бъде осъзнат избор, а не избор от страх или от неразбиране. Защото онова, което е направено от хора - made by humans - ще има много сериозна стойност.

Хората, които не притежават технологични умения, но имат социални и етични умения, ще бъдат връзката между машината и човека в крайните решения - човекът в цикъла, онзи човешки дълг и човешка проверка, които ще валидират, ще отхвърлят или ще приемат решенията на изкуствения интелект. А технологично мотивираните хора ще оптимизират времето си, за да създават иновации и решения.

Тоест - за всички има място. И тук има един много важен момент, който трябва да се разбере: изкуственият интелект и знанието му са базирани на опита на човека. Това означава, че ако човекът престане да иновира, да си представя, да мечтае - изкуственият интелект ще залинее. Оттам ще се срине човекът и цивилизацията ще тръгне надолу, защото хората са станали мързеливи и са хвърлили мотиката в градината си. А когато хвърлиш мотиката, градината се превръща в бурени. 

- Реалистично ли е България да стане износител на световни решения за изкуствен интелект? И какво трябва да се случи, за да стане това - на ниво инфраструктура, кадри или регулации?

Ясен Танев: Инфраструктурата не е задължително да бъде в България. Ние сме малка държава, а вече имаме много инфраструктура - повече, отколкото реално можем да уплътним. Това означава, че ще плащаме ток, без да извличаме достатъчна добавена стойност. Затова смятам, че фокусът не трябва да е в още бетон и още сървъри.

Ако обаче имаме добри изследователски центрове, ако имаме качествена образователна инфраструктура, ако имаме работещо здравеопазване, ако храната ни е наистина храна, ако имаме нощен живот, който знаем, че можем да имаме, ако културата ни е на ниво, ако достъпът до планината е лесен и качествен - и в градовете, и по селата - тогава идват талантите. Тогава България се превръща в място, в което хората искат да живеят.

Имам приятели от Норвегия, които казват: „Когато дойдем в България, ние се храним с хубава храна и слънце". Преди да си тръгнат, вече ги боли, че заминават, и чакат да се върнат отново. Аз им казах: „Чакам ви целогодишно.“ И това не е шега – има огромен потенциал за дигитална миграция и дигитални номади, включително към места, за които днес дори не можем да си представим, че биха били привлекателни.

В този смисъл България може да бъде инкубатор на интелект и износител на решения. И тук отново ключовата роля е на университетите. Съвсем скоро четох доктрина на „Сианс По“ (Sciences Po) - френски университет по политически науки, право и икономика. Те казват ясно: изкуственият интелект вече е тук, трима от четирима студенти го използват повече от веднъж седмично. Това означава, че трябва да им създадем нови когнитивни умения - да разбират технологията, да я използват, но и да мислят критично, да анализират елементите, в които има дискриминация или изкривяване.

Елементите, в които има дискриминация, трябва да бъдат разпознавани и анализирани - и именно тук България има свое място. Ние, както знаете, живеем в мултиетническа среда, с дълга история на съвместно съжителство и чувствителност към различията. Това е ценен опит, който не е даденост навсякъде.

- Защо казвате „България може да бъде“, а не „България е“? Какво не ни достига?

Ясен Танев: Вчера беше сряда (10 декември - бел. ред.). И ако 200 000 млади хора не подкрепят политиките на държавата, а в същото време имаме разходи, които не носят добавена стойност, резултатът е ясен - и младите хора, и онези, които вече са на 50, просто си тръгват оттук. 

Без демокрация чудо не става. Затова въпросът не е дали „би могло“, а какво избираме да бъдем и как искаме да живеем.

Дали искаме да живеем в държава на нископлатен труд, която изкарва пари, произвеждайки електричество срещу въглероден диоксид и отровени хора? Или искаме да работим и живеем в среда с висока демокрация, атрактивна за българи и за чужденци, с висока добавена стойност, в която хората не просто оцеляват, а могат да бъдат щастливи? Това е избор. И той е изцяло наш. 

/ВЙ/

В допълнение

Избиране на снимки

Моля потвърдете избраните снимки. Това действие не е свързано с плащане. Ако продължите, избраните снимки ще бъдат извадени от баланса на вашите активни абонаментни пакети.

Изтегляне на снимки

Моля потвърдете изтеглянето на избраните снимката/ите

Потвърждение

Моля потвърдете купуването на избраната новина

Към 15:58 на 20.12.2025 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация