Европейският съюз скоро ще започне да тества по външните си граници изкуствен интелект, който да разпитва пътниците, пише Gizmodo. Идеята е, че софтуерът би трябвало да определя кой лъже по-точно, отколкото който и да е човек. Програмата iBorderCtrl ще работи в продължение на шест месеца на четири гранични пункта в Унгария, Латвия и Гърция. Въпросните пунктове са разположени по граници със страни, които не са членки на ЕС. Освен по-голяма гранична сигурност, очакванията към новия изкуствен интелект са той да ускори преминаването на пътници през пунктовете.
Системата ще иска от пътуващите да попълват онлайн заявки за влизане в дадената страна членка на ЕС и да качват някои от документите си онлайн, след което виртуален митничар ще задава необходимите въпроси. Примери какво ще пита програмата са: „Какво има в куфара ти?“ и „Ако отвориш куфара ти и покажеш какво има вътре, съдържанието ще потвърди ли, че отговорите ти са били истина?“. Пътниците ще трябва да отговарят пред уеб-камера, а системата ще анализира и оценява мимиките им. Ако изкуственият интелект прецени, че човек казва истината, ще му дава QR-код, позволяващ преминаване на границата. Ако има подозрения за лъжа обаче, ще се изисква биометрична информация, включително пръстов отпечатък, отпечатък на дланта и сканиране на лицето. След това ще се извиква истински граничар, който да продължи разпита.
Тъй като програмата ще е в тестови период, тя няма да има право да забранява на никого да премине дадена граница. При първоначалните експерименти изкуственият интелект е успял да определи правилно дали даден човек лъже или не в 76% от случаите. Член на екипа зад iBorderCtrl обаче е казал, че е уверен, че успеваемостта на системата може да се повиши до 85%.
Дори и да бъде постигната тази цел, остава сравнително висок процентът възможни грешки. Това обаче не е учудващо, тъй като редица изследвания са доказали, че много от алгоритмите за разчитане на лицето имат висок процент на погрешност и предубеденост. Това е пък е причина организации за защита на гражданските права да се опасяват, че за да се повиши точността на въпросните алгоритми, може да се стигне до масово наблюдение с камери на обществата.