IT NewsАнализи

В кои случаи големите данни забавят развитието на технологиите AI ?

В ерата на четвъртата индустриална революция липсата на данни, изчистени от „боклука“, е основната пречка за реализирането на проекти, базирани на AI.

CrowdFlower, американска компания, занимаваща се с изследвания в областта на изкуствения интелект и машинното обучение, откри недостатък на данни, подходящи за използване в алгоритмите за машинно обучение. Проучване, проведено от компанията през 2019 г., показа, че само 21% от анкетираните са сигурни, че техните данни са организирани и достъпни за ML. Други 15% казаха, че данните са опростени и достъпни, но не се използват за такива цели.

Alegion, компания, специализирана в събирането на информация за машинно обучение, също проведе собствено проучване и получи почти същите резултати. То показа, че качеството на данните и въпросите с етикетирането не са разрешени средно в четири от пет проекта за МЛ!

Появата на корпоративния ИИ доведе до факта, че повече от половината от анкетираните не позволяват на данните да излизат извън страната или създадоха свой собствен инструмент за анотиране (подробна обработка) на данните. ML алгоритмите е много по-трудна задача, отколкото са очаквали, а същият брой анкетирани съобщават за проблеми при стартирането на проекти, в които фигурира Big Data.

Некачествените данни не са нещо ново за компаниите. От десетилетия ненужната информация е често срещан проблем за ИТ специалистите, които прекарват голямо количество работно време, изграждайки пълна база данни и модели на данни и прилагайки MDM (master data management) стандарти. Буквално преди 5 години компаниите трябваше да изразходват огромни суми за обработка на информация, преди да създадат MPP (архитектура на изчислителни системи).

В съвременния свят проблемите с филтрирането на информационния „боклук“ не са отминали. В разгара на активното използване на облачно съхранение, получаването на чисти и добре управлявани данни все още е трудно и всъщност стана по-трудно, тъй като по-голямата част от него е неструктурирана. Според Джеймс Котън, директор на Data Management Centre of Excellence, значителен процент от глобалните данни е просто неправилен. Лошото качество на информацията представлява пряка заплаха за AI – в бъдеще това заплашва с грешни решения, които ще вземе невронната мрежа.

Анализаторът на Gartner Ник Хюдекер заяви, че осем от десет проекта са били неуспешни през миналата година. През 2018 г. само 3% от иновациите бяха внедрени и донесоха положителна възвръщаемост на инвестициите. Databricks, доставчикът на решение Apache Spark, нарече ситуацията „1% проблем.“

 Очевидно нарастващият мащаб на ИИ и машинното обучение се фокусира само върху проблема с лошото качество на информацията. Три мегатренда покриват международния пазар: машинно обучение, изкуствен интелект и бизнес разузнаване (BI). Въз основа на това най-доброто, което компаниите могат да направят, е да не бързат с автоматизация на процесите и да преосмисли стратегията си, казват експертите.

 

Покажи повече

Di Tech

DiTech | Добре дошли в света на дигиталните технологии

Подобни публикации

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Back to top button
Close
Close