Polskie miasta otwierają się na perspektywę zarządzania przez dane i pracują nad projektami mającymi przynieść optymalizację i cyfrowe usługi dla mieszkańców, wskazali przedstawiciele czołowych miast w Polsce podczas XV Smart City Forum. 

Mechanizm zarządzania danymi to proces wymagający sporo czasu i zbudowania zespołu. Dane są gromadzone przekrojowo przez silosy. Dlatego jest to wyzwaniem. Warszawa zaczęła budować stały zespół, aby to zaadresować. Technologie są i można je do tego użyć. Wykorzystywane były proste dane dotychczas – mapy, w kolejnej fazie powinny zacząć być wykorzystywane dane statystyczne z ośrodków miejskich. Chcemy realizować inteligentną politykę społeczną – wyjść do mieszkańców, zebrać dane i zaoferować więcej wsparcia na ich podstawie. Jednak tu pojawiły się bariery prawne. RODO nie pozwoliło swobodnie zbierać danych. Zrobiliśmy prostszą wersję, ale idea główna została wypaczona przez aspekty prawne. Ten aspekt organizacyjny i prawny to trudne kwestie na lata. Z kolei zespół na pewno się znajdzie i ten element jest łatwy do pokonania” – powiedział Wojciech Ciesielski, Z-ca Dyrektora Wydziału Informatyki, Urząd Miasta Łodzi Departament Zdrowia i Spraw Społecznych.

Marcin Adamski, Naczelnik Wydziału Projektów Smart City, Urząd m.st. Warszawy, wskazał że większe miasta nie mogą mieć uprzywilejowanej pozycji w tej kwestii, bo danych jest bardzo dużo i wszystkie miasta mają podobne wyzwania w tym zakresie.

Nie jest źle bo proces jest realizowany w ramach data governance. Rozmawiamy o projektach zarządzania przez dane i te procesy w wielu miastach się zaczęły. To nie kwestia przełomowych technologii, ale mentalności. Można tańszym kosztem pracować na danych, np. zrobić porządek w bazie danych, hurtownię IT, czy zespoły analityczne. Warszawa niedużym kosztem wyznaczyła liderów do pracy na danych.  Każdy może spróbować nie patrząc na wielkie hasła i technologie. Chodzi o podejmowanie decyzji i systematycznie na poziomie zarządczym to powinno się przebijać” – zaznaczył Adamski.

Ekosystem danych miejskich 

Maciej Toroszewski, Country Cloud Services Manager, Hewlett Packard Enterprise, podkreślił że jego firma realizuje projekty transformacji na świecie.

Zrobiliśmy dotychczas ok. 900, a samych smart city 90. Miasta polskie nie maja czego wstydzić, dużo zrobiły zwłaszcza że to trudny temat też dla firm. Obserwujemy zjawisko grawitacji danych. Lubią się zbierać, przyciągać inne. Np. inteligentne oświetlenie. Lampy zbierają różne dane – raz zaimplementowany system zbiera coraz więcej różnych danych. Tu wchodzą technologie do strukturyzowania danych. Regulacje ograniczają zarządzanie, dostęp do danych i z tym wszyscy muszą się zmierzyć. Warto budować zespoły interdyscyplinarne, jak w Warszawie – to przyniesie zmianę” – ocenił Toroszewski.

Paweł Schmidt, Dyrektor Centrum Obsługi Informatycznej, Urząd Miasta Krakowa, stwierdził że należy wyróżnić 3 perspektywy.

„Strategiczna – po co przetwarzamy dane i jaki jest tego kierunek; operacyjna – własność danych bo to właściciel będzie definiował cele dla danych; technologiczna – nie jesteśmy w stanie przewidzieć jakimi danymi i w jakim celu będziemy operować. W kompetencjach analityków danych jest dziura kompetencyjna. Jest to trudne bo rzadkie i nowe. Możliwości samorządu są ograniczone. Udało nam się jednak zbudować – zespoły badają różne możliwości, proof of concept dla projektów dla biznesu i budują świadomość pracy na danych” – wskazał Schmidt.

Krzysztof Pękala, Dyrektor Biura Informatyki, Urząd Miejski w Gdańsku, zauważył że przez całe lata miasta żyły w „dokumentach i sprawach”.

„Dane dopiero teraz zyskują znaczenie. „Po ulicach chodzą sprawy, nie mieszkańcy” – takie było podejście. Idziemy w kierunku „rzeczywistość – zdarzenia – dane”. Ułożenie tego systemu pozwoli lepiej zarządzać dokumentami i sprawami. W murach urzędu dominuje ekosystem danych finansowych. Dane miasta i gminy dopiero zaczynają dołączać do danych finansowych. Nareszcie przechodzimy w stan opisu danymi” – stwierdził Pękala.

Dane jako inwestycja 

Jakub Mazur, Wiceprezydent Miasta Wrocławia, zapowiedział że miasto chce stworzyć wehikuł rozwiązań jak m-obywatel.

„Pracujemy by stworzyć referencyjny projekt. Celem jest wywołanie oszczędności. Urzędy na świecie mają tendencję do etatyzacji i dokładania roboczogodzin. Tu myślimy o optymalizacji. Urząd przetwarza tysiące wniosków, a ograniczona digitalizacja dokumentów. Idea jest by powtarzalne procesy zautomatyzować, aby osiągnąć oszczędność kosztową i czasu również mieszkańców. Nie ma jeszcze na to patentu, ale jak znajdziemy grube KPI to przejdziemy do uszczegółowienia tego – optymalizacja, standaryzacja i wdrożenie. Oszczędność się docelowo pojawi” – wskazał Mazur.

Country Cloud Services Manager, Hewlett Packard Enterprise, dodał że firma widzi trend, który daje szansę na skokowy postęp.

„Jest szukanie rozwiązań. Jako dostawca technologii obserwujemy przejście z posiadania rozwiązania w kierunku konsumpcji aplikacji do wykorzystywania platformy, rozwiązania w modelu usługowym. Pozwala to płynnie i dynamicznie skalować rozwiązanie i jego koszt. Kierunek jest mocno widoczny, wielowymiarowy, pozwala na szybką innowację, elastyczność kosztową, konsolidacja wykorzystania tego co się ma” – wskazał przedstawiciel HPE.

Dodał że w Polsce był projekt, który zakładał że płacąc podatki w mieście ma się zniżki, czyli pojawiła się monetyzacja danych.

Z kolei zastępca Dyrektora Wydziału Informatyki, Urząd Miasta Łodzi Departament Zdrowia i Spraw Społecznych uznał, że w kwestii oszczędności wyzwaniem jest jak je policzyć.

Efekty inicjatyw zwykle przychodzą za jakiś czas. Amortyzacja efektów nie musi być bezpośrednio w pieniądzu, ale też w jakości życia mieszkańców (nowe usługi). Trudno to zważyć, a będzie dostrzegalne” – powiedział przedstawiciel Łodzi.

Naczelnik Wydziału Projektów Smart City, Urząd m.st. Warszawy, stwierdził że inwestowanie w zarządzanie oparte o dane będzie korzystne nawet bez wykazania bezpośrednich efektów.

Staramy się otworzyć wszystko na dane. Patrzymy na dane z największym potencjałem innowacyjnym, aby zbudować nowe usługi.Ważne, aby postawić na wiarygodne, współdzielone dane, a dążenie do tego nie musi być drogie, bo  interfejs IT nie jest już drogi w pozyskaniu. Raczej problem kto ma napisać dobry OPZ. Musimy tu wspierać specjalistów IT, aby umiejętnie prezentować to co potrzebujemy. Była apka milion drzew, ale pojawiło się wyzwanie jak zmigrować te dane, aby skonsolidować usługę i nie utrzymywać dwóch jednoczesnych.  Wniosek jest taki, że warto konsolidować dane od razu, czyli pisać bardziej profesjonalne OPZ” – podsumował Adamski.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments