Предполагам вече голяма част от всекидневно използващите интернет са се сблъсквали с ChatGPT. Например, за да напишат имейл, който са отлагали от доста време, или да си набавят необходимата информация. Общо взето всеки ден откриваме неговите многобройни предимства. Но едва ли някога сте се замисляли, че е от особено значение как използвате ChatGPT, както и други генеративни платформи за изкуствен интелект.
Напоследък все повече се говори за въвеждането на регулации за изкуствения интелект и изобщо дали има нужда от тях. Но замислете се какво ще се случи, ако всеки може да се докосне до тази технология. Тогава той може да ви даде предубедени отговори, да разпространява дезинформация и да дестабилизира света.
Защо са необходими регулации за изкуствения интелект?
Знаете ли, че алгоритмите за кредитни карти на Apple са известни с това, че филтрират жените, кандидатстващи за кредитнa картa или пък, че Microsoft е използвал туитове, за да обучава своя чатбот? Това е причината той първоначално да дава дискриминиращи и подстрекателни отговори на потребителите, както и да бъде свален за един ден.
Подобни провали на изкуствения интелект пораждат въпроса дали той е толкова интелигентен, за колкото го мислим. И също така, трябва ли технология с почти човешки интелект, но без никакъв морален усет, да има свободна власт в света?
Защо разпоредбите за изкуствения интелект са от съществено значение?
Изкуственият интелект напредва с всяка секунда дори докато четете тази статия. Той е съществувал още през 60-те години на миналия век. Но интересно е защо чак сега говорим за неговите регулации? Може би по следните причини:
-
Достъпност до изкуствения интелект
До изкуствения интелект може да се докосне всеки – от 9 годишно дете дори до държавния глава. Неограниченият достъп до нещо толкова мощно излага света на риск.
-
Загуба на работно място
Дори изпълнителният директор на Open AI, Сам Олтман, признава, че изкуственият интелект ще доведе до „сътресения“ на пазара на труда. Въпреки това силно се надява, че тази технология ще подобри качеството на работните места в дългосрочен план, но към момента той може да увеличи икономическата пропаст в света.
-
Неточни резултати
На всеки вече почти му е известно, че изкуственият интелект има вероятност да даде неточни резултати. Причината за тези грешки са данните върху, който той е обучен. Дори се срещат няколко случая на расови и полови предразсъдъци, които намират място в резултатите от ИИ. Представете си какъв хаос би настъпил, ако изкуственият интелект проверяваше автобиографиите ви при кандидатстване на работа и проявява пристрастия към жените и малцинствата.
-
Обществено наблюдение и имитация
Повечето от нас не са наясно със социалното наблюдение под една или друга форма. Случвало ли ви се е да говорите за нещо и след това да ви се появи подобна реклама? Но имитацията е нова уловка на изкуствения интелект, с която започваме да се сблъскваме.
Наскоро в мрежата беше публикувана реч на бившия президент на САЩ Доналд Тръмп. Тя стана популярна за отрицателно време. Оказа се, че е била дело на изкуствения интелект. Но движението на устните и гласът били толкова близки до тези на президента Тръмп, че за непрофесионалиста би било невъзможно да направи разликата. Това е предупредителен сигнал за бъдещето, в което подправените изказвания могат да повлияят на изборните резултати и правосъдните системи.
-
Оръжия с изкуствен интелект
В близко бъдеще ИИ може да се използва за създаване на роботи, които убиват обекти самостоятелно, без човешка намеса. Затова надпреварата за оръжия с ИИ трябва да бъде спряна още преди да е започнала, защото в противен случай може да има катастрофални последици за световния мир.
Регулации и закони за изкуствения интелект по света
През 2018 г. законодателството в областта на информационните технологии и изкуствения интелект прие Общия регламент за защита на данните (GDPR). Както става ясно от името, този акт на Европейския съюз не се отнася само за изкуствения интелект, но в него има клауза, която описва „правото на обяснение“ за въздействието на изкуствения интелект. През 2021г. приетият от Европейския съюз, закон за изкуствения интелект, е по-конкретен. Той класифицира системите за ИИ в три категории:
- Системите, които създават недопустимо голям риск, трябва да бъдат забранени.
- Системите, които могат да се считат за високорискови, трябва да бъдат регулирани
- Безопасни приложения, които могат да бъдат оставени без регулация
През 2022 г. Канада прие Закона за изкуствения интелект и данните (Artificial Intelligence and Data Act – AIDA), за да регулира компаниите, използващи изкуствен интелект, с помощта на модифициран подход за оценка на риска. За разлика от Закона за изкуствения интелект, AIDA не забранява използването на изкуствен интелект дори в критични за вземане на решения операции. Въпреки това разработчиците трябва да създадат стратегии за ограничаване на риска като резервен план.
Освен тези значими закони, повечето други законодателни мерки по света са в процес на разработване.
Какво казват експертите и законодателите?
В САЩ също се правят опити за приемане на законодателство. Създателят на ChatGPT, който завладя света, Сам Олтман, се яви в Сената, за да вземе отношение по време на заседанието, на което се обсъждаха регулациите за изкуствения интелект. Всички очакваха с нетърпение да чуят какво ще каже той. Олтман сподели, че „много се страхува“ от собственото си творени и смята, че ако технологията се обърка може да стане нещо лошо. Затова призова правителствата да регулират генеративния изкуствен интелект, като предложи да се лицензира разработката на ИИ.
ПРОЧЕТЕТЕ ОЩЕ... Бъдещето на електронната търговия Колко заявки от правителствата за потребителски данни получи Meta? Кои са 10-те най-високоплатени програмни езици?