Што прадугледжвае праект, хто і як збіраецца рэгуляваць штучны інтэлект, што пра гэта думаюць эксперты, разбіраўся «Белсат».
Дзяржаўны камітэт стандартызацыі Беларусі паведаміў 15 ліпеня пра пачатак фармавання Нацыянальнага тэхнічнага камітэту стандартызацыі ў сферы штучнага інтэлекту.
Тэхнічны камітэт будзе прадстаўляць аб'яднанне прадпрыемстваў і арганізацыяў, зацікаўленых у распрацоўцы стандартаў у сферы штучнага інтэлекту.
Падобна, асноўны пункт праекту – вызначэнне «ўпаўнаважанага дзяржаўнага органу», якому прапануюць даць шырокія паўнамоцтвы ў рэгуляванні тэхналогіяў, звязаных са штучным інтэлектам: распрацоўка законаў і праграмаў, «маніторынг бяспекі», стварэнне «камітэту па этыцы», «арганізацыя незалежнай ацэнкі якасці», міжведамасная і міждзяржаўная каардынацыя, і гэтак далей.
Праект прадугледжвае градацыю тэхналогіяў паводле ўзроўню пагрозаў і забарону тэхналогіяў, у якіх пабачаць «пагрозу нацыянальнай бяспецы» ці «абсалютную пагрозу». Праект дапускае забарону «трансгранічных тэхналогіяў штучнага інтэлекту». Таксама прадугледжаныя «спецыяльныя эксперыментальныя прававыя рэжымы» для тэхналогіяў штучнага інтэлекту.
Навуковец і аналітык тэхналогіяў Сяргей Бесараб кажа «Белсату», што гэты дакумент – «юрыдычны чарнавік, злеплены так, каб імітаваць рыторыку еўрапейскага і кітайскага рэгулявання». Але ў дакуменце ён не бачыць уліку рэальных асаблівасцяў індустрыі вакол штучнага інтэлекту, разумення сучасных межаў тэхналогіяў ці рэальнай механікі працы мадэляў глыбокага навучання.
«Вельмі моцная каша, – апісвае праект Бесараб. – Яны спрабуюць ахапіць усё — ад тэрмінаў да тэхнічнай сертыфікацыі, у выніку няма нічога. Усё абмежавана юрыдычным словаблудствам і дэманстрацыяй нейкай незразумелай увагі да рызыкаў».
Белсат/ав