Polski biznes bardzo szybko zaadaptował rozwiązania AI, ale nie wie, jak je wykorzystywać w pełni i długofalowo. Raport pokazuje, że prawie 2/3 firm angażuje AI w krótkoterminowe działania.

SAS – globalny lider w obszarze danych i sztucznej inteligencji – zaprezentował wyniki nowego badania dotyczącego wykorzystania, wpływu oraz poziomu zaufania do AI. Według raportu IDC Data and AI Impact Report: The Trust Imperative, przygotowanego pod patronatem SAS, liderzy działów IT i biznesu deklarują, że Polska przewyższa średnią światową w implementacji narzędzi AI w każdej z czterech kategorii: generatywnej, tradycyjnej, agentowej i kwantowej.

Jednak 60% respondentów z Polski określiła podejście swojej organizacji do AI jako „koncentrację krótkoterminową”, czyli taką, w której inicjatywy związane ze sztuczną inteligencją w firmie nie mają długofalowego zastosowania. Dla porównania – średnia UE jest prawie dwukrotnie niższa (35,1%). Jednocześnie tylko 6% polskiego biznesu, w porównaniu do 11% w Europie, podchodzi do AI w sposób “transformacyjny”, co oznacza, że w organizacji utworzono długoterminowy plan inwestycyjny, a AI ma wpływ na strategie tworzenia modeli biznesowych i doświadczeń związanych z produktami lub usługami.

Z jednej strony zainteresowanie oraz implementacja AI w Polsce są na bardzo wysokim poziomie, z drugiej większość respondentów dalej patrzy na rozwiązania AI w perspektywie „tu i teraz”. Widzimy, że biznes szuka nowych rozwiązań i je testuje, ale ciągle nie potrafi zaufać im i kontrolować na tyle, aby oprzeć o nie krytyczne procesy – mówi Artur Skalski, Head of Customer Advisory, SAS Polska.

Problemem nie jest infrastruktura. Polska jest coraz bliżej globalnej średniej, a wiele organizacji wychodzi już poza konfiguracje silosowe w kierunku podejść bardziej ustandaryzowanych i „zarządzanych”. Niemniej jednak postęp na najwyższym poziomie dojrzałości jest nadal ograniczony, co sugeruje, że mimo poprawy fundamentów danych, wciąż wymagają one wzmocnienia, aby w pełni wspierać godną zaufania AI w całym przedsiębiorstwie. Jakość, różnorodność i zarządzanie danymi bezpośrednio wpływają na wyniki AI, sprawiając, że do osiągania korzyści i ograniczania ryzyka niezbędne są inteligentne strategie data governance.

Wysoki stopień zaufania, ale niska wiarygodność

Jak pokazują wyniki badania SAS, optymalny poziom zgodności między zaufaniem do sztucznej inteligencji a jej wiarygodnością, czyli idealny balans, osiąga 9% organizacji na całym świecie. W Polsce to jedynie 3%. Ponadto polskie firmy nadmiernie ufają rozwiązaniom AI – blisko połowa z nich (45%) wpada w niebezpieczną sferę, określoną w raporcie jako koncepcja dylematu zaufania (w UE jest to 39%). Tylko 5% polskich organizacji jest po drugiej stronie spektrum, czyli wśród tych, którzy mają ograniczone zaufanie, pomimo solidnych podstaw wiarygodności.

Tak wysoki stopień zaufania, bez rzeczywistej kontroli jakości, w połączeniu z tendencją do częstego wykorzystywania różnych form AI w sposób doraźny może prowadzić do niebezpiecznych sytuacji, w których organizacja oprze swoją strategię na błędnych wnioskach. Ciekawe jest to, że jednocześnie polskie firmy częściej niż globalna średnia (o 9 p.p.) deklarują, że kładą szczególny nacisk na dokładność i wiarygodność wyników AI, uznając je za priorytety. Możemy przypuszczać, że zaufanie nie wynika z lekkomyślności, ale raczej z przekonania o potencjale tej technologii  mówi Artur Skalski.

Rozwiązania prawne w pogoni za technologią

W Polsce presja regulacyjna wokół wykorzystania danych jest wyraźnie silniejsza niż w większości krajów. Polskie organizacje częściej niż globalni konkurenci wskazują na bariery prawne związane z przepływem informacji zgłaszają problemy z przekazywaniem danych między organizacjami i partnerami aż o 22,5 p.p. częściej niż wynosi średnia światowa. Jako dodatkowe utrudnienie wskazują również przepisy nakazujące, by dane pozostawały w granicach kraju, co ogranicza możliwości współpracy transgranicznej i wykorzystania chmury. Z drugiej strony, polskie organizacje rzadziej dostrzegają presję związaną z regulacjami dotyczącymi algorytmów czy lokalizacji dostawców w tych obszarach obawy są mniejsze niż na innych badanych rynkach.

Największe wyzwania polskiego AI

Polskie firmy coraz lepiej rozumieją potencjał danych, ale wciąż mają problem z ich praktycznym wykorzystaniem. Częściej niż globalna średnia (+5 p.p.) wskazują trudności z dostępem do odpowiednich źródeł danych. To pokazuje, że integracja i efektywne wykorzystanie informacji na potrzeby AI wciąż stanowią jedno z głównych wyzwań. Z kolei kwestie etyczne takie jak stronniczość modeli czy prywatność danych budzą w Polsce mniejsze obawy niż w innych krajach. To sygnał, że lokalne organizacje skupiają się przede wszystkim na niezawodności i jakości technologii, traktując zagadnienia etyki i zgodności z przepisami jako dalszy etap dojrzewania rynku AI.

Polska jest dziś jednym z najbardziej dynamicznych rynków pod względem wdrażania sztucznej inteligencji, ale tempo nie zawsze idzie w parze z dojrzałością. Biznes potrafi eksperymentować i szybko się uczy, jednak AI stanie się rzeczywistym motorem transformacji dopiero w momencie, w którym zacznie opierać swoje decyzje na wiarygodnych danych, klarownych zasadach i odpowiedzialnych ramach zarządzania. Teraz kluczowe będzie zbudowanie mechanizmów weryfikacji i kontroli, które pozwolą firmom przejść od intuicyjnego entuzjazmu do świadomego, odpowiedzialnego korzystania z AI – opartego na danych, przejrzystości i wiarygodności modeli. Wówczas polskie firmy przejdą od testowania AI do realnej, trwałej zmiany – podsumowuje Artur Skalski.

Badanie opiera się na globalnej ankiecie przeprowadzonej wśród 2 375 respondentów z Ameryki Północnej i Łacińskiej, Europy, Bliskiego Wschodu, Afryki oraz regionu Azji i Pacyfiku. Uczestnikami byli zarówno specjaliści IT, jak i liderzy obszarów biznesowych, co pozwoliło uchwycić perspektywy łączące świat technologii i biznesu.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze