+
Вход

Въведи своя e-mail и парола за вход, ако вече имаш създаден профил в DEV.BG/Jobs

Забравена парола?
+
Създай своя профил в DEV.BG/Jobs

За да потвърдите, че не сте робот, моля отговорете на въпроса, като попълните празното поле:

111+1 =

+
Забравена парола

Въведи своя e-mail и ще ти изпратим твоята парола

Алексей Уткин, DataArt: ,,Най-успешните компании ще устоят на изкушението да внедряват AI прибързано“

Текстът е предоставен от DataArt

Генеративният AI се развива бързо, но повечето предприятия не са готови за промяната. Алексей Уткин, ръководител на Лабораторията по данни и анализи в глобалната технологична компания DataArt, обяснява защо ненадеждната „инфраструктура“ води до погрешни AI резултати – и как лидерите могат да избегнат скъпоструващи грешки. Той представя ясен четиристъпков подход за изграждане на устойчива AI стратегия. Без тези основи дори най-добрите AI инструменти могат да донесат повече вреда, отколкото полза.

Търсите кариера в сферата на AI? Вижте свободните позиции на DataArt България в това направление ТУК.


Генеративният AI завладя бизнеса и доминира в бюджетните прогнози в различни индустрии, но зад този възход стои скъпа истина. До 2030 г. центровете за данни, фокусирани върху AI, ще консумират повече енергия годишно от Япония. Докато технологичните лидери рекламират все по-интелигентни асистенти, системите, които захранват тези модели (инфраструктурата за корпоративни данни), остават разпокъсани, недофинансирани и често пренебрегвани.

Наближава фаза на разочарование, преди AI да започне да работи правилно с корпоративните данни. Разговорите за генеративен код и data mesh не могат да прикрият фундаменталната реалност: AI е толкова силен, колкото е здрава инфраструктурата под него. А истината е, че повечето компании не са извършили необходимата подготвителна работа.

Когато обещанието за продуктивност не се изпълнява

Реалните подобрения в производителността, които разработчиците постигат чрез AI инструменти за програмиране като GitHub Copilot, варират между десет и двадесет процента. Тези числа не са незначителни, но не отговарят на трансформационния разказ, прокарван от доставчици и консултанти.

Днес те питаме…

Ако имаш 8 часа да научиш ново дизайн умение с AI, кой уъркшоп би избрал?
Loading ... Loading …

Explore more

Виж
Azure Sentinel обявите
Събрани на едно място
Right Arrow
Виж
Flux обявите
Събрани на едно място
Right Arrow
Виж
Microsoft Dynamics CRM обявите
Събрани на едно място
Right Arrow
Виж
Rust обявите
Събрани на едно място
Right Arrow

Твърденията често се основават на ограничени работни процеси, които не отразяват целия цикъл на разработка – тестване, архитектура, интеграция. Senior инженерите все още трябва да преглеждат и рефакторират генерираното от AI. Възходът на генеративните инструменти дори може да увеличи нуждата от висококвалифициран инженеринг надзор, тъй като AI създава синтактично правилен код без разбиране на архитектурата, регулаторните особености или техническия дълг.

Организациите в крайна сметка изчистват бъркотията, създадена от AI, – но в мащаб. За CIO и CTO това е сигнал, че трябва да преосмислят стратегиите за наемане -: вместо да замести разработчиците, AI измества фокуса им от създаване на код към коригиране на такъв.

Управлението на данни остава критичният проблем

Повечето системи за данни просто не са изградени за внедряване на AI. Никой не иска да поддържа каталози, да проследява произхода на данни или да изгражда референтни таблици. Тези задачи често се третират като проблем на някой друг, докато AI не започне да взема решения въз основа на грешна информация.

Множеството решения (data lakes, ETL инструменти, warehouse слоеве) не са решили този проблем. Вместо това са създали крехки екосистеми, в които потоците от данни се чупят безшумно, източникът на истината става субективен, а собствеността – размита.

По-малко от 30% от компаниите имат формален модел за собственост върху data products, сочат последни проучвания. Без ясна отговорност данните, захранващи AI, остават най-малкото непоследователни, а в най-лошия случай – опасни. Дори съвременни подходи като data mesh, които акцентират върху собствеността по домейни и федеративното управление, работят само ако културните стимули са в синхрон.

Този проблем е по-скоро мотивационен. Хората, които поправят инфраструктурата на данни, рядко получават признание или кариерно развитие. Това фундаментално несъответствие между организационните стимули и изискванията за качество на данните подкопава AI инициативите още преди да започнат.

AI за операции с данни: където оптимизмът е оправдан

Въпреки системните предизвикателства, използването на AI за поправяне на самите системи, от които моделите зависят, носи реално обещание. Задачи като съпоставяне на схеми, откриване на аномалии, оптимизация на потоци и тагване на метаданни са естествено подходящи за AI инструменти. Тези повтарящи се, правило-базирани дейности се възползват от мащабното разпознаване на модели.

Това е сфера, в която AI ще направи съществена промяна, особено за намаляване на разходите на компании, които не могат да си позволят големи екипи за анализ на данни. Но напредъкът зависи от скоростта, с която се развиват инструментите за валидация. Когато генеративният AI започне да засяга системи в разработка, рискът от каскадни грешки нараства.

Казано иначе, AI-базираните корекции на данни могат да внесат фини проблеми, които остават незабелязани, докато не се отразят на последващите решения. Предизвикателството е да се изградят стабилни рамки за валидация, които да улавят грешките, генерирани от AI, преди да се разпространят из корпоративните системи.

Скритата инфраструктура и енергийната криза

Освен инструментите и човешкият ресурс, във фона на всичко това се крие и една неудобна цена: енергопотреблението. Центровете за данни вече заемат 2-3% от глобалното електропотребление, а генеративните AI натоварвания са особено енергоемки.

Според Международната енергийна агенция ускорените AI сървъри могат да увеличат глобалното електропотребление на центровете за данни до 945 тераватчаса до 2030 г., което приблизително се равнява на настоящото годишно потребление на Япония.

CIO вече трябва да отчитат волатилността на цените на енергията, излагането на въглероден данък и надеждността на мрежата в своите AI стратегии. Много организации не са подготвени за тази реалност. Съществува предположението, че AI инструментите живеят в облака и се мащабират автоматично, но малцина мислят за това какво се случва, когато сметките за поддържане на облак нараснат заради ежедневни повторни обучения на AI моделите.

Ако софтуерът бъде заменен с AI агенти, сметката за електроенергия на планетата ще достигне безпрецедентни нива. Тази енергийна реалност поставя фундаментални въпроси относно устойчивостта и икономиката на масовото внедряване на AI.

Стратегическа рамка за корпоративни лидери

Правилната позиция за лидерите в компании, навигиращи в този пейзаж, изисква ясен четиристъпков подход:

  • Премахване на наследените проблеми: Започнете с очевидни разходни блокажи като on-premises бази данни, които пречат на гъвкавостта. Миграцията към облака е предпоставка, а не стратегия. Не може да се изграждат ефективни AI способности върху остаряла инфраструктура.
  • Баланс в инвестициите: Не инвестирайте прекалено в платформи без реални бизнес потребности. Пилотните проекти трябва да доказват стойност, преди да се мащабират. Изкушението да се купуват комплексни AI платформи без ясни планове за внедряване води до скъпи провали.
  • Интелигентни експерименти: Тествайте генеративен AI във вътрешни функции като обобщаване на документи или откриване на аномалии, където рискът от грешка е нисък, но научаването – значително. Такива контролирани среди дават ценни прозрения, без да излагат критични бизнес процеси на AI грешки.
  • Бюджет за външни фактори: Включете разходите за електроенергия, въздействието върху емисиите и изискванията за съответствие във всички решения за AI инфраструктура. Истинската цена на AI внедряването надхвърля софтуерните лицензи и изчислителните ресурси.

Императивът на правилната последователност

Изкушението да се гонят незабавни успехи с генеративен AI е разбираемо, но без ясни основи за данните, силно управление и реалистично моделиране на разходите тази амбиция се превръща в отговорност. Важно е правилното подреждане на стъпките.

Организациите трябва първо да поправят инфраструктурата, след това да мащабират моделите. Без солидна база за данни няма значение колко мощен е AI – той ще учи от шум и ще създава ненадеждни резултати, които могат да навредят на бизнеса.

Най-успешните бизнеси ще бъдат тези, които устоят на изкушението да внедрят AI възможно най-бързо и вместо това инвестират в основната работа, която прави AI надежден и достоверен. Това включва не само техническа инфраструктура, но и рамки за управление, човешка експертиза и културни специфики, които поставят качеството на данните пред бързината на излизане на пазара.

Казано иначе, компаниите, които прескочат тези основи, ще се изправят пред нарастващи рискове, тъй като AI системите имат задачи, свързани със значими решения. Онези, които изградят здрави основи, ще бъдат в позиция да използват напредващите AI възможности, като същевременно поддържат доверието и съответствието, необходими за устойчив растеж.