+
Вход

Въведи своя e-mail и парола за вход, ако вече имаш създаден профил в DEV.BG/Jobs

Забравена парола?
+
Създай своя профил в DEV.BG/Jobs

За да потвърдите, че не сте робот, моля отговорете на въпроса, като попълните празното поле:

87+39 =
+
Забравена парола

Въведи своя e-mail и ще ти изпратим твоята парола

Съвременния изкуствен интелект и Reinforcement Learning

*Практически бизнес казус на Schwarz IT Bulgaria

Слав Йолов, Data Scientist

Слав Йолов, Data Scientist в екипа BI, AI и Data в Schwarz IT България.

През последните 5 години Слав e натрупал солиден опит в изграждането и експлоатацията на цялостни AI приложения в областта на прогнозиране на търсенето и продажбите, сходство на артикули, откриване на аномалии и много други.

Reinforcement Learning (RL) е една от най-горещите изследователски теми в областта на съвременния изкуствен интелект и нейната популярност нараства изключително бързо. Приложението ѝ навлиза в различни сектори на икономиката, като търговия, финанси, роботика, автомобилостроене, game индустрия.

В Schwarz IT разработваме различни проекти, използвайки изкуствен интелект и развитието на нашите специалисти в RL е неразделна част от работата при нас.

Представяме ви практически пример за използване на AI агенти в бизнес решения (RL алгоритми за решаването на бизнес казуси).

Оптимизиране на веригата за доставки на Kaufland

Изкуственият интелект (AI) оказва огромно влияние в логистичната индустрия. Скорошни изследвания показват, че изкуственият интелект ще позволи на компаниите да „…извличат между 1,3 трлн. и 2 трлн. долара годишно икономическа стойност от използването на AI във веригата на доставки…“. Следвайки тези тенденции, в Schwarz IT България разработваме различни приложения, които практически помагат на бизнеса да управлява логистичните си процеси по най-добрия за тях начин.

В следващите редове ще ви представим един такъв проект, разработен за Kaufland България, свързан с управлението на веригата за доставки. С над 1000 магазина и над 20 000 артикула на склад, специалистите ежедневно трябва да изчисляват малко над 20 милиона прогнози.

Изследователска задача – Оптимизиране на разходите по складиране и логистика.

Сред най-важните задачи на системата за прогнозиране и попълване на складови наличности е да поддържа наличност на тези продукти, които са най-важни за клиентите. Добрите прогнози позволяват повече гъвкавост при обработка и оптимизиране на разходите за съхранение и доставка на различни продукти. Колкото по-неточна е системата, толкова по-неефективно се използва складовото пространство и така стигаме до първия разход, който трябва да минимизираме – разходите за съхранение. Всяка поръчка се изпраща към дистрибуторските центрове, където започва процес по подготовка на всички артикули за транспортиране. Те се комбинират и поставят на палети. Всеки палет трябва да бъде запълнен до максимална височина, а максимум 33 палета се побират в един транспортен камион. Тук трябва да бъде съобразен и процесът на опаковане, ако всички артикули са поръчани на палет и всички транспортни камиони са пълни. Е, това не винаги е така и част от задачата е да настроим алгоритъма да разрешава и този казус.

Допускания
Днес те питаме…

Как предпочиташ да комуникираш с колегите си на работа?
Loading ... Loading …

Нека въведем следните допускания, за да опростим задачата за оптимизиране:

  • Всички артикули се доставят ежедневно без забавяне.
  • Всички предмети могат да се комбинират и транспортират заедно.
  • Всички опаковки на артикули пасват идеално един към друг и подреждането върху палета може да се изчисли като сумата от фракциите, които всеки артикул обикновено заема.
  • Всички артикули пристигат в магазините с посочения срок в дни до изтичане на срока на годност.
  • Артикулите с приоритет под 0,25 точки могат да бъдат изчерпани заради транспортните разходи.

Останалите артикули трябва да са на разположение по всяко време. В идеалния случай поне с минималните им количества.

Kaufland не поема рискове, застрашаващи удовлетвореността на клиентите, затова артикулите се следят много внимателно за тяхното качество и срок на годност. Всеки артикул с изтекъл срок на годност се унищожава за сметка на фирмата, така че това е още един разход.

По-долу обобщаваме разходите на така дефинираната среда:

Разходи за съхранение – количествата над “max_qty” не могат да бъдат на рафтовете, достъпни за клиентите. Разходи за съхранение се прилагат за всяка част, която трябва да се съхранява една нощ в склада.

Разходи за обработка – за всеки артикул могат да се поръчват само количества, кратни на количеството на поръчката (order_qty). Разходите за обработка на поръчаното количество на артикул са най-високи, когато количеството е най-отдалечено от количеството на палета (transport_qty) и може да се счита за 0, когато поръчаното количество е кратно на количеството на транспортната единица. Тази цена може да бъде приблизително изчислена с израза:

Транспортни разходи – подобно на разходите за обработка, транспортните разходи са най-високи, когато броят на транспортните единици, кратни на transport_qty, е най-нисък, и най-ниски, когато транспортните единици са кратни на 33.

Разходи за отпадъци – артикулите и съответните им количества, достигнали срока на годност, трябва да бъдат унищожени за сметка на фирмата.

За решаването на този казус предлагаме AI подход. На графиката по-долу е представен стандартен сценарий за Reinforcement Learning модел:

Reinforcement Learning (RL) е една от трите основни парадигми за машинно обучение, наред със supervised learning и unsupervised learning. Той се занимава с това как софтуерните агенти трябва да предприемат действия в среда, за да максимизират кумулативното възнаграждение. Агентът може да бъде трениран чрез дълбока невронна мрежа, чието действие би предложило поръчки да бъдат доставени в съответствие с изискванията и спецификацията на средата за обучение.

Предоставените данни за продажбите могат да ви помогнат да изградите симулация на търсенето за всички артикули, например чрез извадка от историческите данни или дори по-добре – от генерирана извадка със същата статистика като историческата. Накрая след всяко действие на агента, околната среда ще трябва да отговори с ново състояние – текущ запас за артикулите и награда – като се вземат предвид описаните от нас разходи и съответното потребление.

Въпреки че Reinforcement Learning все още много активно се развива и изследва, постигнат е значителен напредък в прилагането й в реалния живот.

Надяваме се, че с предложената практическа задача сме предизвикали известно любопитство, което ще ви накара да се потопите малко по-дълбоко в тази област. Ако искате да научите повече, следете нашите изяви в страниците ни в социалните мрежи.