За по-малко от пет години, академичният пробив на изкуствения интелект се превърна в технологията, отговорна за вземането на решения в областта на здравеопазването, какво да виждаме в интернет и решаването дали затворниците трябва да се освободят.

Машинното обучение започва да се докосва невидимо във всички аспекти на нашия живот. Способността му да автоматизира вземането на решения предизвиква бъдещето на експерти и неквалифицирани работници. Болниците може да се нуждаят от по-малко лекари, благодарение на автоматизираното планиране на лечението и шофьорите на камиони може да не са необходими до 2030 г.

Но това не е просто работа. Сериозни въпроси започват да се повдигат относно това, дали може да се вярва на решенията, взети от ИИ. Изследванията показват, че тези алгоритми са лесно предубедени от данните, от които се учат, което означава, че обществените отклонения са подсилени и увеличени в кода. Това може да означава, че някои кандидати за работа се изключват от разглеждане, когато софтуер за отдаване под наем на ИИ се използва за сканиране на автобиографии.

Още повече, процесът на вземане на решения на тези алгоритми е толкова сложен, че изследователите на AI не могат окончателно да кажат защо едно решение е взето спрямо друго. И макар че това може да е смущаващо за миряните, има дебат в индустрията за това колко ценно е познаването на тези вътрешни механизми, което означава, че научните изследвания може много добре да се развият с разбирането, че просто не е нужно да разбираме ИИ.

До тази година тези въпроси обикновено идваха от академици и изследователи, скептични за темпото, в което се прилага ИИ. Но през 2017 г. се появиха нови организации, обхващащи големите технологични компании, академици и правителства, посветени на разбирането на обществените въздействия от изкуствения интелект.

„Причината е проста – ИИ се е преместило от изследване в реалност, от сферата на научната фантастика до реалността на ежедневната употреба“, казва Орен Етзиони, изпълнителен директор на Института за изкуствен интелект, пред изданието Quartz.

Някои експерти се опасяват, че дадени организации ще бъдат използвани като начин за големите технологични компании да прикрият правителствената намеса, като въведат по-меко, самоналожено регулиране помежду си. В статия, публикувана в Quartz, адвокатът Джейкъб Търнър пише, че ако Google и Facebook регулират ИИ, ще бъдат като тютюневите компании, регулиращи цигарите.

Точно сега това са двете крайности на саморегулирането в ИИ или предложения, толкова предпазливи, че само помитат по ръбовете на регулацията. Единствените омбудсмани на ИИ днес са медиите и откритите академици или корпоративни изследователи, които обикновено реагират на специфични академични или индустриални интереси.

Comments

comments