В ЕС ОРЗД изисква информацията за физическите лица да е точна и те да имат пълен достъп до съхраняваната информация, както и информация за източника. Изненадващо обаче OpenAI открито признава, че не може да коригира невярна информация в ChatGPT. Освен това компанията не може да каже откъде идват данните или какви данни съхранява ChatGPT за отделните хора. Компанията е наясно с този проблем, но изглежда не се интересува от него. Вместо това OpenAI просто твърди, че "фактическата точност в големите езикови модели остава област на активни изследвания". Следователно, noyb днес подаде жалба срещу OpenAI до австрийската служба за защита на данните.
ChatGPT продължава да халюцинира - и дори OpenAI не може да го спре. Стартирането на ChatGPT през ноември 2022 г. предизвика безпрецедентна шумотевица около изкуствения интелект. Хората започнаха да използват чатбота за най-различни цели, включително и за изследователски задачи. Проблемът е, че според самата OpenAI приложението само генерира "отговори на потребителските заявки, като предвижда следващите най-вероятни думи, които могат да се появят в отговор на всяка подкана". С други думи: Въпреки че компанията разполага с обширни данни за обучение, в момента няма начин да се гарантира, че ChatGPT действително показва на потребителите вярна информация. Напротив, известно е, че генеративните инструменти за изкуствен интелект редовно "халюцинират", т.е. просто измислят отговори.
Добре е за домашна работа, но не и за данни за физически лица. Макар че неточната информация може да е допустима, когато ученик използва ChatGPT, за да му помогне с домашното, тя е неприемлива, когато става въпрос за информация за физически лица. От 1995 г. насам законодателството на ЕС изисква личните данни да бъдат точни. Понастоящем това е залегнало в член 5 от ОРЗД. Освен това съгласно член 16 от ОРЗД физическите лица имат право на коригиране, ако данните са неточни, и могат да поискат невярна информация да бъде изтрита. Освен това съгласно "правото на достъп" в член 15 дружествата трябва да могат да покажат кои данни за физически лица съхраняват и какви са източниците им.
Маартье де Грааф, адвокат по защита на данните в noyb: "Измислянето на невярна информация само по себе си е доста проблематично. Но когато става въпрос за невярна информация за физически лица, може да има сериозни последици. Ясно е, че понастоящем компаниите не са в състояние да направят така, че чатботове като ChatGPT да отговарят на законодателството на ЕС, когато обработват данни за физически лица. Ако една система не може да дава точни и прозрачни резултати, тя не може да се използва за генериране на данни за физически лица. Технологията трябва да следва правните изисквания, а не обратното."
Простото създаване на данни за физически лица не е опция. Това до голяма степен е структурен проблем. Според неотдавнашен доклад на "Ню Йорк Таймс""чатботовете си измислят информация в поне 3% от случаите - и до 27%". За да илюстрираме този проблем, можем да разгледаме ищеца (публична личност) в нашето дело срещу OpenAI. Когато беше попитан за рождения му ден, ChatGPT многократно предостави невярна информация, вместо да каже на потребителите, че не разполага с необходимите данни.
Липса на права по GDPR за физическите лица, заловени от ChatGPT? Въпреки факта, че рождената дата на жалбоподателя, предоставена от ChatGPT, е невярна, OpenAI отказва искането му за коригиране или изтриване на данните с аргумента, че не е възможно да се коригират данни. OpenAI заявява, че може да филтрира или блокира данните при определени подкани (като например името на жалбоподателя), но не и без да попречи на ChatGPT да филтрира цялата информация за жалбоподателя. OpenAI също така не е отговорила адекватно на искането за достъп на жалбоподателя. Въпреки че ОРЗД дава право на потребителите да поискат от дружествата копие от всички лични данни, които се обработват за тях, OpenAI не е разкрила никаква информация за обработваните данни, техните източници или получатели.
Маартье де Грааф, адвокат по защита на данните в noyb: "Задължението за изпълнение на исканията за достъп се отнася за всички дружества. Ясно е, че е възможно да се водят записи за данните за обучение, които са били използвани, като поне има представа за източниците на информация. Изглежда, че с всяко "нововъведение" друга група дружества смята, че нейните продукти не трябва да се съобразяват със закона."
Засега усилията на надзорните органи са безплодни. След внезапното нарастване на популярността на ChatGPT инструментите за генеративен изкуствен интелект бързо попаднаха под наблюдението на европейските органи за защита на личните данни. Наред с другото, италианският орган за защита на данните обърна внимание на неточността на чатбота, когато наложи временно ограничение на обработката на данни през март 2023 г. Няколко седмици по-късно Европейският комитет по защита на данните (ЕКЗД) създаде работна група за ChatGPT, която да координира националните усилия. Остава да се види докъде ще доведе това. Засега изглежда, че OpenAI дори не се преструва, че може да спазва GDPR на ЕС.
Подадена жалба. noyb сега иска от австрийския орган за защита на данните (DSB) да разследва обработката на данни от OpenAI и мерките, предприети за гарантиране на точността на личните данни, обработвани в контекста на големите езикови модели на компанията. Освен това искаме от DSB да разпореди на OpenAI да изпълни искането за достъп на жалбоподателя и да приведе обработката си в съответствие с ОРЗД. И накрая, но не на последно място, noyb иска от органа да наложи глоба, за да се гарантира спазването на изискванията в бъдеще. Вероятно този случай ще бъде разгледан чрез сътрудничество с ЕС.