ѻý Poland /pl-pl/ ѻý Fri, 30 May 2025 06:43:12 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.8.1 /pl-pl/wp-content/uploads/sites/27/2021/07/cropped-favicon.png?w=32 ѻý Poland /pl-pl/ 32 32 192805555 Dostępność cyfrowa /pl-pl/insights/blogi-eksperckie/dostepnosc-cyfrowa/ Fri, 30 May 2025 06:43:11 +0000 /pl-pl/?p=911011 Hasło „dostępność cyfrowa” (ang. digital accessibility) jest ostatnio odmieniane przez wszystkie przypadki za sprawą European Accessibility Act (EAA), czyli dyrektywy unijnej wchodzącej w życie 28 czerwca 2025 roku.

The post Dostępność cyfrowa appeared first on ѻý Poland.

]]>

Dostępność cyfrowa
niezbędna dla niektórych, przydatna dla wszystkich

Daria Stolarska
May 30, 2025

Hasło „dostępność cyfrowa” (ang. digital accessibility) jest ostatnio odmieniane przez wszystkie przypadki za sprawą European Accessibility Act (EAA), czyli dyrektywy unijnej wchodzącej w życie 28 czerwca 2025 roku.

Wiele firm działających na terenie Unii Europejskiej zaczęło nagle obawiać się surowych kar finansowych za niedostosowanie swoich produktów i usług do potrzeb osób z niepełnosprawnościami. Ale czy w tym wszystkim chodzi o prawo i pieniądze?

Niepełnosprawność – kogo tak naprawdę dotyczy?

Definicje niepełnosprawności mogą się nieco różnić w zależności od kraju czy organizacji (Unia Europejska, ONZ), ale mają wspólny mianownik:

Niepełnosprawność to długotrwałe ograniczenie zdolności wykonywania codziennych czynności. Może być fizyczne, umysłowe, intelektualne lub sensoryczne[1].

Zwróćmy uwagę na słowo „długotrwałe”. Dlaczego nie „trwałe”? Czy ludzie z niepełnosprawnościami to wyłącznie np. osoby z ograniczoną sprawnością ruchową, osoby z niepełnosprawnością wzroku czy słuchu? Nie do końca. Pamiętajmy o tym, że wyzwania dotyczące dostępności, również tej cyfrowej, mogą dotyczyć… nas wszystkich. W każdym momencie możemy znaleźć się w sytuacji, gdzie nasza zdolność do wykonywania pewnych czynności będzie ograniczona, nawet krótkotrwale. Niekoniecznie musi być to niepełnosprawność w pełnym tego słowa znaczeniu.

Wyobraźmy sobie, że łamiemy rękę, którą obsługujemy myszkę komputerową. Musimy przełożyć ją do drugiej dłoni i nagle okazuje się, że podczas korzystania z internetu nie potrafimy „najechać” na ten maleńki symbol „x” zamykający irytującą nas reklamę.

Inna sytuacja: mamy chrypkę lub silny akcent, próbujemy porozumieć się przez telefon ze sztuczną inteligencją w funkcji obsługi klienta w naszym banku, ale ona nie potrafi rozpoznać wypowiadanych przez nas słów.

Kolejny przypadek: jedziemy komunikacją miejską i oglądamy na telefonie filmiki umieszczone na portalu społecznościowym przez naszych ulubionych influencerów. W tramwaju jest bardzo głośno, nie mamy przy sobie słuchawek, a nie chcemy, żeby wszyscy słyszeli dźwięki wydobywające się z naszego smartfona.

I jeszcze jeden: jesteśmy osobą starszą i chcemy sprawdzić promocje na stronie pobliskiego dyskontu spożywczego, ale jesteśmy atakowani przez mnóstwo migających reklam, a najnowsze oferty przewijają się w karuzeli, której nie da się zatrzymać, a my nie nadążamy z czytaniem drobnych literek z nazwami produktów.

Takie przykłady można mnożyć. Wynika z nich jasno, że jakaś forma niepełnosprawności czy wyzwania może czasowo lub sytuacyjnie dotyczyć nas wszystkich.

Technologie asystujące i ułatwienia dostępu

Co może nam w takich sytuacjach pomóc? Zacznijmy od urządzeń i oprogramowania:

  • joysticki – używane często przez osoby z ograniczoną motoryką, które mogą poruszać w jakimś zakresie dłonią lub palcami,
  •  tzw. mouth stick – czyli urządzenie, z którego korzystają osoby z ograniczoną lub brakującą sprawnością ruchu rąk, które nie mają możliwości obsługi joysticka. Za pomocą takiego „drążka” można korzystać z klawiatury albo obsługiwać smartfony i tablety.
  • klawiatury – pomocne, gdy np. rozładuje nam się myszka, ale niezbędne, kiedy nie widzimy,
  • przetwarzanie tekstu na mowę – wykorzystują je osoby z niepełnosprawnością mowy, które jednocześnie są w stanie wystukiwać tekst na klawiaturze,
  • przetwarzanie mowy na tekst – przydatne, kiedy rozmawiamy z asystentem Google, Cortaną czy Siri, dyktujemy notatki na smartfonie, czy obsługujemy urządznia cyfrowe, nie mogąc użyć do tego celu rąk,
  • czytniki ekranu – oprogramowanie (NVDA, Jaws czy VoiceOver dla komputerów oraz TalkBack i VoiceOver dla telefonów i tabletów) czytające treści widoczne na ekranach,
  • wyświetlacze i notatniki Braille’a – urządzenia przetwarzające tekst na alfabet Braille’a i na odwrót,
  • napisy i trankrypcje dla treści audio i wideo – dla osób Głuchych, ale też dla tych, którzy jadą wspomnianym wcześniej tramwajem i nie mogą oglądać filmików w wersji z dźwiękiem,
  • możliwość powiększania tekstu (nawet do 400%) na stronie internetowej – dla osób słabowidzących,
  • kombinacje powyższych metod.

A co my mamy z tym wspólnego?

Skoro osoby z niepełnosprawnościami mają do dyspozycji tak wiele pomocnych urządzeń i programów, to o co właściwie chodzi z tą dostępnością i co my, pracownicy IT, mamy z tym wspólnego?

Otóż… wiele! Żeby czytnik ekranu, opcja powiększania tekstu czy obsługiwanie z klawiatury mogły naprawdę na coś się przydać, wytwarzane przez nas oprogramowanie i strony internetowe muszą być odpowiednio przygotowane.

Wszystko zaczyna się na etapie rozmowy z klientem i zbierania wymagań przez osoby w rolach analityków biznesowych – już wtedy należy w projekcie zarezerwować czas potrzebny na wdrożenie dostępnych rozwiązań. Następnie trzeba odpowiednio zaprojektować interfejs użytkownika  – na przykład zadbać o odpowiedni kontrast kolorów, krój fontów i rozmiar przycisków. Później kluczową rolę odgrywają programiści, którzy na podstawie wytycznych i projektów piszą dostępny, czysty kod. Ramię w ramię z nimi pracują testerzy sprawdzający, czy oprogramowanie/strona internetowa wygląda i działa tak, jak powinny. Na koniec osoby, które będą umieszczać na stronach internetowych różne treści, powinny zostać przeszkolone z zasad dostępności tak, aby umiały poprawnie dodawać teksty alternatywne do obrazów, używać nagłówków, tworzyć prawidłowe odnośniki, dodawać napisy do filmów.

Jak widać, jest to skomplikowany i dość kosztowny proces, a więc…

Czy warto inwestować w dostępność cyfrową?

5x TAK!

  • Po pierwsze, wypełniając obowiązek nakładany przez nowe, unijne prawo, firmy unikną ryzyka wysokich kar i długich, kosztownych procesów sądowych.
  • Po drugie, firmy, które dzięki dostępności zwiększą swoją przewagę nad konkurencją, w osobach z niepełnosprawnością znajdą nowych użytkowników i klientów, co przełoży się na lepsze wyniki finansowe.
  • Po trzecie, firmy, których produkty i usługi będą dostępne cyfrowo, będą postrzegane jako odpowiedzialne społecznie, co może przyciągać nowych klientów i partnerów biznesowych.
  • Po czwarte, wiele zasad dostępności cyfrowej, takich jak czytelne fonty, odpowiedni kontrast kolorów czy intuicyjna nawigacja, poprawia ogólną użyteczność stron internetowych i aplikacji dla wszystkich użytkowników, co sprawia, że klienci spędzą więcej czasu na stronie czy w aplikacji firmy i nie uciekną do konkurencji.
  • Po piąte i najważniejsze – w dostępności chodzi o ludzi! Prawo czy wytyczne organizacji standaryzujących są tylko środkami do osiągnięcia celu, jakim jest umożliwienie osobom z niepełnosprawnościami dostępu do produktów i usług na równi z innymi. Inwestując w dostępność cyfrową, firmy pokazują, że dbają o wszystkich swoich klientów, niezależnie od ich możliwości. To buduje pozytywny wizerunek marki, zwiększa lojalność klientów i przyczynia się do tworzenia bardziej inkluzywnego społeczeństwa.

Podsumowując, inwestowanie w dostępność cyfrową to nie tylko obowiązek prawny, ale także strategiczna decyzja biznesowa, która przynosi korzyści zarówno firmom, jak i społeczeństwu.


[1] Żół:

The post Dostępność cyfrowa appeared first on ѻý Poland.

]]>
911011
Career MVP – czyli jak zdefiniować swoją wartość zawodową /pl-pl/insights/blogi-eksperckie/career-mvp-czyli-jak-zdefiniowac-swoja-wartosc-zawodowa/ Tue, 20 May 2025 11:02:20 +0000 /pl-pl/?p=910724 Niezależnie od tego, czy planujesz awans, myślisz o zmianie pracy, czy po prostu chcesz świadomie kierować swoją karierą - warto zacząć od określenia swojego Career MVP.

The post Career MVP – czyli jak zdefiniować swoją wartość zawodową appeared first on ѻý Poland.

]]>

Career MVP – czyli jak zdefiniować swoją wartość zawodową

Joanna Solarska
May 20, 2025

W świecie pełnym dynamicznych zmian, transformacji cyfrowej i ciągłego rozwoju technologii, niezmienna pozostaje potrzeba, by jasno komunikować swoją wartość zawodową.

Niezależnie od tego, czy planujesz awans, myślisz o zmianie pracy, czy po prostu chcesz świadomie kierować swoją karierą – warto zacząć od określenia swojego Career MVP.

Czym jest Career MVP?

MVP to skrót od Minimum Viable Product, pojęcie z metodologii zwinnej (Agile), które oznacza „produkt minimalnie opłacalny”. W kontekście kariery możemy określić swój Minimum Viable Profile: najbardziej podstawowej, ale wartościowej wersji Twojej profesjonalnej tożsamości. To konkretna odpowiedź na pytanie: co już teraz mogę zaoferować jako specjalist_ka?

Career MVP nie musi być pełnym CV. To zestaw kluczowych kompetencji, doświadczeń i wartości, które stanowią Twój rdzeń zawodowy.

Jak stworzyć swój Career MVP?

Zacznij od autorefleksji. Zadaj sobie trzy pytania:

  • Jakie problemy potrafię rozwiązywać?
  • Co wyróżnia mnie spośród innych specjalistów lub specjalistek w mojej dziedzinie?
  • Jakie wartości i rezultaty dostarczam zespołom lub organizacjom?

Możesz też zebrać feedback od osób, z jakimi współpracujesz lub przyjrzeć się projektom, z których jesteś dumny_a. Szukaj powtarzających się motywów i tego, co przynosiło realną wartość.

Dlaczego warto?

Jasna komunikacja – Career MVP pomaga precyzyjnie opisać siebie na LinkedIn, w rozmowie o pracę czy podczas prezentacji własnych osiągnięć.
Lepsze decyzje zawodowe – świadomość swojej wartości pozwala szybciej ocenić, czy dana rola lub projekt pasuje do Twojego kierunku.
Punkty odniesienia dla dalszego rozwoju – MVP to fundament, od którego możesz budować kolejne kroki – backlog kariery, roadmapę, personal branding.

Career MVP w praktyce

ʰł:
„Jako analityczka biznesowa specjalizuję się w usprawnianiu procesów IT. Potrafię przekładać wymagania biznesowe na konkretne rozwiązania techniczne, współpracując z zespołami interdyscyplinarnymi.”

Zwięźle, konkretnie, z naciskiem na wartość i unikalność.

Twój Career MVP to kompas zawodowy – dzięki niemu łatwiej podejmiesz świadome decyzje, zbudujesz silniejszy profil ekspercki i szybciej zauważysz, co Cię naprawdę wyróżnia. Nie czekaj na kolejny przegląd roczny w pracy – stwórz swój Career MVP.

Chcesz dowiedzieć się więcej lub stworzyć swoje własne Career MVP? Zajrzyj na warsztatyktóre odbędą się w ramach konferencji Perspektywy Women in Tech Summit 2025 już 5.06, o godzinie 15:00.

The post Career MVP – czyli jak zdefiniować swoją wartość zawodową appeared first on ѻý Poland.

]]>
910724
Budowanie relacji w pracy bez cringe’u /pl-pl/insights/blogi-eksperckie/budowanie-relacji-w-pracy-bez-cringeu/ Thu, 24 Apr 2025 06:06:16 +0000 /pl-pl/?p=910397 Praca to coś więcej niż narzucone spotkania i terminy. To również ludzie, z którymi spędzasz codziennie czas - bo, bądźmy szczerzy, zgrany zespół sprawia, że nawet najtrudniejszy dzień staje się do zniesienia. Ale jak nawiązać szczere relacje, nie wypadając przy tym sztucznie ani nie kreując wizerunku osoby, która przy ekspresie do kawy wyjawia zbyt wiele?

The post Budowanie relacji w pracy bez cringe’u appeared first on ѻý Poland.

]]>

Budowanie relacji w pracy bez cringe’u

Adrian Bartosik
Apr 24, 2025
capgemini-engineering

Praca to coś więcej niż narzucone spotkania i terminy. To również ludzie, z którymi spędzasz codziennie czas – bo, bądźmy szczerzy, zgrany zespół sprawia, że nawet najtrudniejszy dzień staje się do zniesienia. Ale jak nawiązać szczere relacje, nie wypadając przy tym sztucznie ani nie kreując wizerunku osoby, która przy ekspresie do kawy wyjawia zbyt wiele?

1.  Bądź po prostu “spoko” (Zaskakująco Proste)

Nikt nie lubi w pracy robotów. Po prostu bądź uprzejmy. Powiedz „cześć”, przytrzymaj drzwi, zapytaj „Jak minął weekend?”, nie oczekując pełnej biografii. Małe gesty budują zaufanie na dłuższą metę.

2.  Opanuj Small Talk (albo udawaj, że umiesz w pogaduszki)

 Nie każdy jest mistrzem luźnych pogawędek (pozdrawiamy introwertyków). Ale nie musisz być duszą towarzystwa, żeby pogadać. Bezpieczne tematy to:

  • Plany na weekend (ale bez wchodzenia w szczegóły)
  • Seriale (każdy coś ogląda)
  • Pogoda (tak, to banał, ale działa)
  • Biurowe przekąski („Kto zjadł moje ciastka?” to świetny punkt zaczepienia)

Unikaj: polityki, rozmów o zarobkach i osobistych problemach (zostaw to na spotkania po pracy).

3.  Znajdź wspólny język (bez dziwnych manewrów)

Nie musisz zaprzyjaźniać się z każdym, ale wspólne zainteresowania pomagają. Może oboje uwielbiacie psy, nie akceptujecie ananasa na pizzy albo podziwiacie biurowe kwiaty, które jeszcze nie uschły.

Pro tip: Jeśli usłyszysz, że ktoś lubi coś, co ty też lubisz, delikatnie nawiąż do tego przy następnej rozmowie. „Słyszałem, że lubisz wędrówki – masz jakieś fajne szlaki do polecenia?” = gotowa nić porozumienia.

4.  Pomagaj, ale bez oczekiwań

Chcesz budować dobre relacje? Bądź osobą, na której można polegać. Pomóż, jeśli masz taką możliwość – czy to zastępując kogoś na spotkaniu, czy dzieląc się trikiem w Excelu, który oszczędzi godziny pracy. Ale uważaj, żeby nie stać się „biurowym kozłem ofiarnym”😉 jest różnica między pomocą a wykorzystywaniem.

5.  Wykorzystaj “magię jedzenia”

Chcesz zyskać sympatię w pracy? Przynieś jedzenie. Serio. Paka pączków czy domowe wypieki potrafią zdziałać cuda. Jedzenie łączy ludzi, wywołuje rozmowy i sprawia, że stajesz się ulubionym współpracownikiem. Nie potrafisz piec? Sklepowe też się liczy.

6. Daj relacjom czas

Najlepsze przyjaźnie w pracy rodzą się naturalnie. Nie każdy będzie Twoją bratnią duszą i to jest OK. Daj sobie czas, bądź otwarty na rozmowy i w końcu znajdziesz swoją ekipę.

Podsumowanie: praca jest lepsza z fajnymi ludźmi

Budowanie relacji w pracy to nie rywalizacja na bycie najgłośniejszym czy na siłę zawieranie przyjaźni. Chodzi o to, żeby być otwartym, pomocnym i… trochę bardziej ludzkim. Zacznij od drobiazgów, bądź uprzejmy i może przynieś jakieś ciastka. Nigdy nie wiesz, kto okaże się twoim nowym biurowym kumplem lub kumpelą.

The post Budowanie relacji w pracy bez cringe’u appeared first on ѻý Poland.

]]>
910397
Jak skutecznie wykorzystać AI w roli liderskiej? /pl-pl/insights/blogi-eksperckie/jak-skutecznie-wykorzystac-ai-w-roli-liderskiej/ Mon, 07 Apr 2025 10:26:45 +0000 /pl-pl/?p=910255 The post Jak skutecznie wykorzystać AI w roli liderskiej? appeared first on ѻý Poland.

]]>

Jak skutecznie wykorzystać AI w roli liderskiej?

Weronika Żychlińska
Apr 7, 2025

5 kluczowych wskazówek dla współczesnych menedżerów i menedżerek

Sztuczna inteligencja (AI) to jedno z najważniejszych narzędzi we współczesnym zarządzaniu. Wspiera podejmowanie decyzji, optymalizuje procesy i personalizuje rozwój osób pracujących w danej organizacji. Jednak AI nie zastąpi osoby zarządzającej zespołem – jej skuteczność zależy od umiejętnego połączenia technologii z ludzkimi kompetencjami, takimi jak empatia, strategiczne myślenie i budowanie relacji. Co więcej, jej zastosowanie wymaga odpowiedzialności i etycznego podejścia, które pozwoli uniknąć uprzedzeń algorytmicznych i zapewni przejrzystość działania.

Oto pięć praktycznych wskazówek, jak efektywnie i odpowiedzialnie wykorzystać AI w zarządzaniu zespołem.

1. Korzystaj z AI w analizie danych, ale zachowaj ludzki kontekst

AI potrafi błyskawicznie analizować ogromne ilości informacji, identyfikować trendy i rekomendować działania. Narzędzia, takie jak predictive analytics, pozwalają przewidywać zmiany rynkowe czy potrzeby klientów.

Ostateczna interpretacja danych i podejmowanie kluczowych decyzji pozostają jednak w gestii lidera lub liderki. Model „human-in-the-loop” pozwala łączyć zaawansowaną analitykę AI z doświadczeniem i intuicją człowieka, co prowadzi do trafniejszych decyzji biznesowych. Ważne jest również uwzględnienie aspektów etycznych, takich jak unikanie błędów algorytmicznych czy transparentność wykorzystywanych modeli.

2. Wzmacniaj inteligencję emocjonalną w erze AI

AI może monitorować nastroje pracowników i pracownic na podstawie ankiet czy analizy języka, ale nie zastąpi umiejętności budowania zaufania i autentycznych relacji.

Dziś wykorzystywanie AI jako wsparcia w diagnozowaniu atmosfery w zespole jest rozwiązaniem, z którego warto korzystać, ale kluczową rolę nadal powinna odgrywać empatia. Regularna komunikacja, feedback i otwartość na potrzeby drugiego człowieka pomagają tworzyć zaangażowaną i zmotywowaną kulturę organizacyjną. Jednocześnie niezbędne jest etyczne wykorzystanie danych – zbieranie informacji o nastrojach osób z zespołu powinno odbywać się za ich zgodą i z pełną transparentnością.

3. Personalizuj rozwój osób ze swojego zespołu, ale pamiętaj o inspiracji

Systemy AI, takie jak platformy LMS (Learning Management System), dostosowują ścieżki edukacyjne do indywidualnych potrzeb pracowników czy pracownic. Dzięki nim rozwój staje się bardziej efektywny i dopasowany do umiejętności danej osoby.

Technologia nie zastąpi jednak roli, jaką w zespole pełni lider bądź liderka – taka osoba powinna inspirować, zachęcać do nauki, pokazywać wartościowy kontekst biznesowy i wspierać rozwój kompetencji przyszłości. Ponadto osoby pełniące role liderskie powinny pamiętać o tym, by dobierane przez nich narzędzia edukacyjne nie wykorzystywały stronniczych algorytmów i zapewniały równe szanse wszystkim osobom z zespołu.

4. Automatyzuj rutynowe zadania, by skupić się na strategii

Automatyzacja procesów administracyjnych, raportowania czy obsługi klienta pozwala menedżerom i menedżerkom koncentrować się na kluczowych aspektach zarządzania – innowacjach, strategii i rozwoju organizacji.

Warto wdrażać AI w obszarach, które pozwalają na oszczędność czasu i eliminację powtarzalnych obowiązków. Dzięki temu osoby w rolach liderskich mogą skupić się na kreatywnym myśleniu i budowaniu długofalowej strategii. Jednocześnie powinny monitorować wpływ automatyzacji na osoby w zespole – aby eliminować niepotrzebny stres i obawy o utratę miejsca pracy, kluczowe jest zapewnienie transparentności i odpowiedzialnej komunikacji zmian.

5. Promuj odpowiedzialne wykorzystanie AI

Zaufanie do AI w organizacji zależy od transparentności jej stosowania. Liderzy i liderki powinni jasno komunikować, w jaki sposób AI wspiera ich zespoły, jakie są jej możliwości oraz gdzie leżą jej ograniczenia.

Edukacja na temat etyki AI, unikanie uprzedzeń algorytmicznych oraz odpowiedzialne zarządzanie danymi są kluczowe dla budowania zaufania do technologii i jej skutecznej implementacji w firmie. Warto także śledzić regulacje dotyczące AI oraz przestrzegać zasad dotyczących ochrony danych osobowych i prywatności.

Podsumowanie

AI to potężne narzędzie, ale to człowiek pozostaje w centrum zarządzania. Dziś osoby na stanowiskach liderskich muszą w umiejętny sposób łączyć nowoczesne technologie ze zdolnościami interpersonalnymi, tworząc dynamiczne, efektywne i zintegrowane zespoły.

Wdrażając AI w zarządzaniu, warto więc pamiętać o równowadze – technologia powinna wspierać, a nie zastępować kluczowe kompetencje liderskie. Etyczne podejście do sztucznej inteligencji, transparentność jej stosowania oraz odpowiedzialność liderów i liderek w jej implementacji stanowią fundament sukcesu w erze cyfrowej transformacji.

The post Jak skutecznie wykorzystać AI w roli liderskiej? appeared first on ѻý Poland.

]]>
910255
Inteligentne transformacje biznesowe okiem praktyków /pl-pl/insights/blogi-eksperckie/inteligentne-transformacje-biznesowe-okiem-praktykow/ Mon, 17 Mar 2025 09:50:34 +0000 /pl-pl/?p=909394 The post Inteligentne transformacje biznesowe okiem praktyków appeared first on ѻý Poland.

]]>

Inteligentne transformacje biznesowe okiem praktyków

Stewart Hicks
Mar 17, 2025

Wdrażanie transformacji biznesowych opartych na sztucznej inteligencji (AI), a ostatnio napędzanych entuzjazmem wokół generatywnej AI (Gen AI), staje się coraz popularniejszym kierunkiem firm.

Według raportu ѻý przeprowadzonego we współpracy z , ponad 80% respondentów uważa, że nadszedł czas, aby przekształcić Global Business Services w Generative Business Services – lepiej zdefiniowane jako usługi oparte na AI i danych, ukierunkowane na wzrost oraz innowacje w przedsiębiorstwach. Warto jednak pamiętać, że skuteczna transformacja biznesowa, przynosząca wymierne rezultaty, wymaga kompleksowego podejścia, czyli wdrażania odpowiednich platform technologicznych wraz z transformacją modelu operacyjnego i procesów – a niekoniecznie samej AI. Klucz do jej efektywności stanowią dogłębna diagnoza potrzeb firmy, strategiczne podejście oraz indywidualnie dopasowane, branżowo specyficzne rozwiązania, które łącznie przekształcają modele operacyjne, procesy, technologię i ludzi.

W transformacjach biznesowych obserwujemy duże skoncentrowanie na najnowszych rozwiązaniach technologicznych, jednak podstawowe zasady pozostają niezmienne. Klient – czyli końcowy odbiorca produktów lub usług – musi zawsze znajdować się w centrum projektowania. Jeśli zapomnimy o identyfikacji jego potrzeb i ich rozwiązaniu, transformacja najprawdopodobniej nie zakończy się sukcesem.

Coraz popularniejszą i skuteczniejszą metodą budowania strategii transformacji jest model oparty na rezultatach (Outcomes Based Model), który koncentruje się przede wszystkim na wpływie programu transformacyjnego na biznes, a nie jedynie na typowych miernikach wydajności procesów czy modelach cenowych opartych na stałych lub zmiennych opłatach. Inicjatywy transformacyjne oraz świadczone usługi są dostosowane do osiąganych rezultatów biznesowych, takich jak poprawa kapitału obrotowego poprzez redukcję zaległych należności czy zwiększenie przychodów dzięki wykrywaniu, zapobieganiu i odzyskiwaniu utraconych przychodów. Obserwujemy przypadki, w których zastosowanie takich modeli prowadzi do znaczącej poprawy przepływów pieniężnych, a osiągane rezultaty sięgają milionów euro na korzyść naszych klientów.

Takie podejście znacząco zwiększa skuteczność transformacji biznesowej i wykracza poza tradycyjne priorytety, skupione na produktywności czy arbitrażu kosztów pracy. Dzięki temu znacznie łatwiej jest przyciągnąć uwagę kadry zarządzającej na poziomie C-level, która zazwyczaj podejmuje decyzje i odpowiada za zakup usług transformacyjnych.

Pracujemy w tym modelu, bo jesteśmy pewni, że dobrze zaplanowana transformacja przynosi oczekiwane rezultaty. Żeby to osiągnąć, musimy dobrze rozumieć naszych klientów – ich potrzeby i specyfikę działania. Dzięki temu możemy tworzyć dopasowane, branżowe rozwiązania oraz skutecznie prowadzić ich przez proces zmian. Opieramy się na szczegółowej analizie danych, która pozwala podejmować trafne decyzje. Do tego stosujemy model rozliczeniowy oparty na osiąganych rezultatach, co motywuje zarówno klientów, jak i ѻý. To właśnie sprawia, że taka współpraca jest korzystna dla obu stron.

W kontekście strategicznej transformacji biznesowej kluczową rolę często odgrywają organizacje znane jako GBS (Global Business Services) lub BPO (dostawcy usług procesów biznesowych – Business Process Outsourcing). Sektor ten jest silnie reprezentowany w Polsce oraz w innych krajach regionu, takich jak Rumunia, głównie dzięki dostępności wysoko wykwalifikowanych specjalistów i specjalistek, eksperckiej wiedzy oraz wciąż stosunkowo niskim kosztom pracy w porównaniu do innych państw. Choć tradycyjne funkcje i korzyści płynące z GBS/BPO pozostają istotne, rośnie potrzeba zdefiniowania ich roli na nowo, aby lepiej trafiać do liderów biznesu, którzy oczekują więcej niż tylko cięcia kosztów.

ѻý to już nie tylko tradycyjny dostawca usług transakcyjnych, ale organizacja, która koordynuje ekosystem nowych umiejętności, technologii i kompetencji dla swoich klientów. Dzięki temu nie ogranicza się do wsparcia operacyjnego, lecz aktywnie napędza realizację strategicznych celów nowoczesnych przedsiębiorstw. ѻý coraz szerzej obejmuje odpowiedzialność za transformację biznesową swoich klientów, rozszerzając działalność na kolejne linie biznesowe i obszary funkcjonalne. Dzięki temu wpływa na ich wyniki finansowe zarówno w zakresie przychodów, jak i zysków.

Siła prostoty

W dzisiejszym świecie technologia rozwija się w zawrotnym tempie, a firmy nieustannie mierzą się z zalewem innowacyjnych rozwiązań, które mogą usprawnić ich działalność. Jednak tak szybkie tempo zmian często utrudnia pełne przystosowanie się do nowości, przez co technologie nie są wykorzystywane w maksymalnym stopniu, a ich wpływ na biznes pozostaje ograniczony. Wiele organizacji wdraża jedynie fragmentaryczne rozwiązania i nie w pełni korzysta z możliwości dostępnych technologii, co znacząco obniża ich efektywność i zwrot z inwestycji.

Technologia powinna być wykorzystywana w pełni, aby jak największa część organizacji mogła czerpać korzyści z wdrożonych rozwiązań. Takie podejście nie tylko zwiększa efektywność, ale także pozwala optymalizować koszty – innymi słowy, nasi klienci mogą w pełni wykorzystać to, za co płacą. Firmy powinny również wybierać platformy technologiczne, które odpowiadają na różnorodne potrzeby, zamiast polegać na wielu rozproszonych narzędziach. Kluczowe jest pełne i właściwe wdrożenie, a nie gromadzenie kolejnych rozwiązań.

Rozwój firmy opiera się na kompetencjach zespołu

Kluczem do udanej transformacji biznesowej – obok dobrego planowania strategicznego – jest skuteczne zarządzanie zmianą i komunikacja. Zmiana przynosi efekty tylko wtedy, gdy pracownicy ją rozumieją, są do niej przekonani, a najlepiej, gdy mają możliwość współtworzenia jej.

Transformacja biznesowa to także rozwój kompetencji pracowników i pracownic. Od samego początku warto jasno komunikować im, jaką rolę odegrają zarówno w trakcie zmian, jak i po ich wdrożeniu. Równolegle z modyfikacją procesów biznesowych kluczowe jest zaplanowanie i przeprowadzenie solidnych szkoleń oraz wyposażenie zespołów w odpowiednie narzędzia i zasoby. Dzięki temu codzienna działalność firmy pozostaje niezakłócona, a osoby zatrudnione mogą w pełni wykorzystać swój potencjał.

W ѻý koncentrujemy się na rozwoju naszych zespołów w obszarze generatywnej AI oraz certyfikacji branżowych. Zatrudniane przez nas osoby mają możliwość, a często także obowiązek, zdobywania kluczowych certyfikatów w tych dziedzinach. Dzięki temu jesteśmy na bieżąco z trendami i zmianami rynkowymi oraz możemy wdrażać dopasowane, optymalne rozwiązania dla naszych klientów. Tylko w ten sposób możemy być dla nich niezawodnym partnerem.

Jednym z najskuteczniejszych sposobów wdrażania zmian jest podejście pilotażowe. Pozwala ono przetestować rozwiązanie w wybranym, czasem odizolowanym obszarze przed jego szerokim wdrożeniem. Metoda ta sprawdza się szczególnie w dużych firmach o zasięgu regionalnym i globalnym. Wybór obszaru pilotażu może być dokonany na poziomie geograficznym – na przykład w konkretnym kraju lub mieście, według linii biznesowych czy funkcji, w których pracownicy są najlepiej przygotowani i chętni do udziału w procesie zmiany. Sukces na mniejszą skalę minimalizuje ryzyko, a pozytywne wyniki pomagają przekonać sceptyków przed wdrożeniem zmian w całej organizacji.

Zmierzch starych technologii

Nawet najlepiej zaplanowane zmiany wymagają czasu. W przypadku dużych platform, takich jak S/4HANA, cały proces może trwać nawet kilka lat. Osoby zarządzające i ich zespoły muszą być przygotowane na okres, w którym będą funkcjonować w dwóch równoległych środowiskach. Jest to niezbędne dla zachowania ciągłości operacyjnej. Warto jednak podejść do tego kompleksowo – dobrze przemyślana transformacja, oparta na jasno określonych celach biznesowych, przynosi długoterminowe i mierzalne korzyści.

Author:

Stewart Hicks

GBS Global Offer Leader, ѻý Poland
Stewart pomaga klientom w ocenie, projektowaniu, transformacji i wdrażaniu nowoczesnych modeli operacyjnych GBS. Jest entuzjastą GBS, pasjonuje się modelami operacyjnymi GBS i chętnie wspiera firmy w maksymalnym wykorzystaniu ich potencjału. Stewart pełnił role liderskie w obszarach takich jak consulting, GBS and outsourcing operations, sales management, project and change management oraz process excellence. Wspierał klientów w projektach związanych z obszarem usług wspólnych, outsourcingiem i transformacjami GBS, wykorzystując różne technologie w różnych branżach.

Wojciech Mróz

Strategy & Transformation Director, ѻý Poland
Wojciech to doświadczony lider z szeroką wiedzą w zakresie realizacji usług oraz transformacji procesów w sektorze BPO/SSC. Aktywnie uczestniczy w rozwoju oferty Generative Business Services (GBS). Pełnił różne role w ramach obszarów takich jak: GBS transformation, F&A transformation oraz Business development. Jako ekspert w dziedzinie automatyzacji pomagał klientom na całym świecie tworzyć strategie i realizować programy automatyzacji procesów.

    The post Inteligentne transformacje biznesowe okiem praktyków appeared first on ѻý Poland.

    ]]>
    909394
    Gen AI a procesy Intercompany /pl-pl/insights/blogi-eksperckie/gen-ai-a-procesy-intercompany/ Wed, 12 Mar 2025 05:08:51 +0000 /pl-pl/?p=909021 The post Gen AI a procesy Intercompany appeared first on ѻý Poland.

    ]]>

    Gen AI a procesy Intercompany – rewolucja w handlu i uzgadnianiu sald

    Przemysław Maćczak
    Mar 12, 2025

    W dzisiejszym dynamicznie zmieniającym się świecie biznesu, duże międzynarodowe firmy stają przed wyzwaniem procesowania ogromnych ilości informacji, związanych z transakcjami Intercompany. Przesyłanie każdego dnia wielkiej liczby faktur wystawianych ręcznie, niesie ze sobą wbudowane ryzyko błędów. Co gorsza, rośnie ono wraz z wielkością handlu w ramach grupy kapitałowej. Błędy spowalniają pracę zespołów finansowych, przyczyniają się do konieczności dokonywania odpisów księgowych, wpływają negatywnie na przepływy gotówkowe oraz mogą powodować trudności przy audycie deklaracji podatkowych.

    Manualne procesy w ramach Intercompany pochłaniają bardzo dużo czasu księgowych, którzy muszą śledzić otwarte pozycje, przeglądać arkusze kalkulacyjne w poszukiwaniu informacji, wysyłać emaile do partnerów handlowych oraz uzgadniać dane pomiędzy poszczególnymi spółkami. Wszystko to odbija się na widoczności sald Intercompany. Uzgodnienie pozycji wielu różnych spółek w ramach całej grupy stanowi często bardzo duże wyzwanie nawet dla doświadczonych księgowych. Zwłaszcza, że konieczne jest uzgadnianie danych pochodzących z różnych systemów ERP, ksiąg pomocniczych, dysków wspólnych, emaili itp. Nawet aktualizacja kursów walut potrafi skomplikować cały proces.

    Przekładając to na problemy biznesowe, wiele firm nie potrafi zoptymalizować swojego wewnętrznego łańcucha dostaw, co skutkuje niekonkurencyjnym modelem operacyjnym. Co więcej, korporacje międzynarodowe muszą być świadome, że Urzędy Skarbowe poszczególnych państw coraz dokładniej monitorują optymalizacje podatkowe, w tym ceny transferowe. Wszelkiego rodzaju wątpliwości w rozliczaniu transakcji Intercompany, mogą negatywnie rzutować na opinię na temat całej grupy kapitałowej.

    Jak sztuczna inteligencja rewolucjonizuje myślenie o handlu Intercompany

    Doradzając naszym Klientom, często widzimy, że właśnie z takimi problemami muszą się mierzyć podczas każdego zamknięcia miesiąca (i na co dzień). W tym właśnie miejscu z pomocą przychodzą najnowsze rozwiązania w postaci platform IT pozwalających na efektywne zarządzanie wszystkimi transakcjami Intercompany ze wsparciem sztucznej inteligencji.

    Pre-konfigurowane fakturowanie pozwala na automatyzację księgowań wprost do globalnej księgi pomocniczej (subledger) Intercompany. Jednak największe korzyści, jeżeli chodzi o wydajność, możemy osiągnąć przy wdrożeniu sztucznej inteligencji do analizy rozbieżności w saldach. Wszelkiego rodzaju wyjątki, czy błędy są natychmiast oznaczane. Wbudowany workflow pozwala na szybkie wyjaśnienie spornych faktur. Użytkownik końcowy może szybko przejrzeć transakcje, skupiając się na tych, które stanowią jakiegoś rodzaju odstępstwo od zdefiniowanych reguł.

    Ostatecznie usprawnia to również proces nettingu każdego miesiąca. Efektywna współpraca między działami księgowości a treasury pozwala na szybkie rozliczenie faktur i dokonanie jedynie niezbędnych płatności w ramach grupy, dalej usprawniając przepływ gotówki.

    Korzyści z implementacji rozwiązań bazujących na sztucznej inteligencji

    Przede wszystkim, implementując rozwiązania z komponentem sztucznej inteligancji, możemy stosować modele predykcji trendów. Platformy do zarządzania Intercompany analizują ogromne ilości danych księgowych i identyfikują z wyprzedzeniem potencjalne problemy, które mogłyby opóźnić proces zamknięcia miesiąca. Sztuczna inteligencja potrafi również określić słabe punkty w istniejących relacjach handlowych wewnątrz grupy, usprawniając przyszłe transakcje.

    Uwalniając czas księgowych, sztuczna inteligencja pozwala im bardziej skupić się na analizie danych oraz lepszym podejmowaniu decyzji. Możliwe jest to dzięki wdrożeniu raportowania transakcji niemalże w czasie rzeczywistym. Od dawna wiadomo, że wizualizacja danych zdecydowanie ułatwia ludziom ich zrozumienie i podjęcie działań.

    Idąc dalej, przekłada się to na redukcję ryzyka związanego z błędami, odpisami księgowymi, a nawet potencjalnymi karami. Transakcje księgowane są w obu spółkach w tym samym czasie. Automatyczne kontrole sprawdzają, czy nałożone marże są zgodne z ustalonymi cenami transferowymi oraz uwarunkowaniami podatkowymi.

    Jak ѻý pomaga klientom?

    Konsultanci pracujący w takich międzynarodowych zespołach jak IFAO Consulting w sposób unikalny łączą wiedzę księgową z najnowszymi trendami IT i ich wykorzystaniem na platformach księgowych. W szczególności w przypadku procesów Intercompany pomagamy naszym klientom w reorganizacji ich zespołów, zwiększając efektywność poprzez wdrożenia oparte na narzędziach wykorzystujących Sztuczną Inteligencję. Przekłada się to na konkretne wartości dla firm – przyspieszając przebieg zamknięcia miesiąca, poprawiając przepływ gotówki i dając zespołom finansowym odpowiednie możliwości, by wspierać potrzeby biznesowe, mitygować ryzyka podatkowe oraz polepszać „rachunek zysków i strat”.

    Author:

    Przemysław Maćczak

    doświadczony Manager ds. Transformacji. Od ponad 17 lat w ѻý, pracował jako konsultant z wieloma korporacjami z różnych branż, na całym świecie. Jego pasją jest bliska praca z klientem, analiza wyzwań oraz dostarczanie.

      The post Gen AI a procesy Intercompany appeared first on ѻý Poland.

      ]]>
      909021
      Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI /pl-pl/insights/blogi-eksperckie/insights-expert-perspetives-navigating-knowledge-bases-efficiently-the-power-of-gen-ai-and-snowflake-cortex-ai/ Thu, 10 Oct 2024 03:59:59 +0000 /pl-pl/?p=905899&preview=true&preview_id=905899 The post Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI appeared first on ѻý Poland.

      ]]>

      Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI

      Dawid Benski
      7th October 2024

      Click here for English version

      Większość firm, przechowuje tysiące stron dokumentów które są niezbędne w pracy zespołowej. Bazy danych szybko się rozrastają i ciągle ewoluują, co stwarza wyzwanie, jakim jest odnalezienie w nich odpowiednich informacji.

      Pomimo starannej dokumentacji, czy też stosowaniu rozwiązń polegających na indeksowaniu treści, dotarcie do tego, czego szukamy, staje się żmudną operacją – musimy albo znać lokalizację danego dokumentu, albo szukać po dokładnych słowach kluczowych.

       Case study jednego z naszych klientów

      U jednego z klientów ѻý, zespół budujący i obsługujący nową platformę  danych był zasypywany masą pytań ze strony niedoświadczonych użytkowników i użytkowniczek, co poważnie zmniejszało jego zdolności do dalszego rowijania tej platformy i dotrzymania ustalonych terminów na wprowadznie nowych funkcjonalności.

      Pokrótce wyjaśnię, na czym polegała obsługa typowego zapytania, pochodzącego od osób korzystających z  platformy:

      1. Klient kieruje pytanie do zespołu obsługującego platformę.
      2. Dedykowana osoba z zespołu platformy przegląda dostępne dokumenty Wiki i szuka odpowiednich informacji.
      3. Kilka minut lub nawet kilka godzin później, osoba z obsługi przekazuje informacje (link) do osoby pytającej.
      4. Odpowiedź może być niejasna, co powoduje zadanie kolejnego pytania.

      Dodam, że wiele pytań było podobnych lub wręcz powtarzało się.

      Wraz ze wzrostem ilości osób korzystających z platformy, rośnie tygodniowy nakład pracy poświęcony wsparciu klientów i przewiduje się, że do końca 2024 roku osiągnie on 2,5 “FTE” (etatów) stale zajmujących się tym zadaniem. Ponadto czas odpowiedzi na prośby dotyczące wsparcia jest zbyt długi, co dodatkowo prowadzi do spadku zadowolenia klientów z obsługi.

      Rozmawiaj ze swoimi danymi za pomocą Gen AI

      Klient wykorzystywał kilka technologii chmurowych, w tym Snowflake, jako główne rozwiązanie w zakresie baz danych i hurtowni danych. Eksperci ѻý szybko dostrzegli technologię Snowflake Cortex AI jako klucz do stworzenia nowoczesnego rozwiązania, które w przyszłości rozwiąże problemy klienta związane z kosztami operacyjnymi obsługi zapytań na jego platformie.

      Jak zmniejszyć koszty operacyjne i jednocześnie przenieść interakcje z klientami na nowy poziom?

      1. Przejdź bezpośrednio do chatbota i zadaj pytanie.
      2. Nadal masz pytanie? Zadaj kolejne.
      3. Chatbot nie potrafi odpowiedzieć na twoje pytanie? Skontaktuj się z odpowiednią osobą z zespołu platformy.

      Z takim pomysłem ѻý przystąpiło do wdrożenia chatbota opartego o Gen AI, który mógłby efektywnie odpowiadać na pytania klientów. Chatbot, wspierany przez obszerne repozytoria wiedzy firmy, zapewniał, że dostarczane odpowiedzi były dokładne i jasne. Dodatkowo, chatbot odnosił się do źródłowego linku dokumentacji Wiki jako części swoich odpowiedzi, ułatwiając znalezienie potrzebnych informacji oraz niejako potwierdzając ich poprawność.

      Takie rozwiązanie dostępne 24 godziny na dobę sprawiło,  że klienci mogli uzyskać pomoc o każdej porze dnia i nocy.

      Wykorzystując moc Cortex AI i Gen AI opierających się na Retrieval-Augmented Generation (RAG), ѻý zrewolucjonizowało sposób obsługi wsparcia klienta.

      Rzut oka na architekturę

      Architektura RAG zaproponowana przez ѻý dla chatbota Cortex AI składała się z trzech typów usług:

      • Cortex AI Functions dla wsparcia large language model (LLM): EMBED_TEXT_768, VECTOR_L2_DISTANCE, oraz COMPLETE).
      • Snowpark Container Services dla interfejsu użytkownika.
      • Tabele Snowflake jako tzw. “vector store” (z natywnym wsparciem typu “vector”).

      Wyjaśnienie podstawowych terminów:

      • RAG to podejście architektoniczne, które zwiększa możliwości dużych modeli językowych (LLM) poprzez włączenie systemu wyszukiwania informacji. System ten wyszukuje odpowiednie dane takie jak np.  dokumenty i dostarcza je jako kontekst dla LLM, poprawiając dokładność i trafność generowanych odpowiedzi.
      • Snowflake Cortex AI to inteligentna, w pełni zarządzana usługa w ramach Snowflake, która pozwala firmom wykorzystać moc sztucznej inteligencji (AI), umożliwiając użytkownikom i użytkowniczkom szybkie analizowanie danych i budowanie aplikacji AI bez potrzeby posiadania rozległej wiedzy technicznej.
      • Funkcje Snowflake Cortex AI to zestaw wstępnie przygotowanych funkcji LLM, które pozwalają na wykonywanie zaawansowanej analizy danych i zadań AI bezpośrednio na platformie Snowflake. Te funkcje obejmują możliwości takie jak uzupełnianie tekstu, analiza sentymentu i podsumowywanie tekstu.
      • Usługi kontenerowe Snowflake to w pełni zarządzana oferta kontenerowa, która pozwala na wdrażanie, zarządzanie i skalowanie aplikacji kontenerowych w ramach platformy danych Snowflake.

      Wdrożenie chatbota Gen AI opartego na technologii Snowflake Cortex AI, pozwoliło klientowi na usprawnienie procesów wsparcia swojego klienta oraz na zmniejszenie kosztów operacyjnych. To innowacyjne rozwiązanie wykorzystujące moc Generatywnej Sztucznej Inteligencji (GenAI) sprawiło, że użytkownicy i użytkowniczki mogą łatwo nawigować po rozległych bazach wiedzy i bardzo łatwo znajdować potrzebne informacje.

      Cortex Search

      Opisałem sposób, w jaki ѻý zbudowało narzędzie wyszukiwania dla podanego use case klienta. Niedawno wprowadzony serwis Cortex Search sprawił, że budowa takich rozwiązań stała się znacznie łatwiejsza. Cortex Search sam zarządza procesami embeddingu oraz wektoryzacji, stąd nie trzeba już samodzielnie oprogramowywać tych kluczowych elementów rozwiązań typu RAG a zamiast tego mozna korzystać z pełnego rozwiązania SaaS.  Dodatkowo, serwis ten podniósł jakość generowanych wyników dzięki zaawansowanemu rozwiązaniu wyszukiwania, łączącemu wyszukiwanie semantyczne i leksykalne. To skuteczne podejście jest niewątpliwie przełomem w budowaniu rozwiązań opartych na Gen AI RAG.

      ѻý and Snowflake

      Współpraca między ѻý a Snowflake pozwala na budowę zaawansowanych ekosystemów, w których firmy mogą bez wysiłku udostępniać i korzystać z udostępnionych danych. ѻý i Snowflake współpracują nad opracowywaniem rozwiązań Generatywnej Sztucznej Inteligencji, które wykorzystują zaawansowaną technologię Snowflake Cortex do implementacji innowacyjnych rozwiązań kluczowych w nowoczesnym biznesie.

      Ta strategiczna współpraca doprowadziła do tego, że Snowflake nadało firmie  ѻý tytuł “2023 EMEA Global SI Partner of the Year”.

      English version

      Navigating knowledge bases efficiently: The power of Gen AI and Snowflake Cortex AI

      Most companies that rely heavily on document stores for knowledge sharing and team collaboration often end up with many pages created by users.

      The rapid growth and constant evolution of these knowledge bases pose significant challenges in finding relevant content. Despite diligent documentation, navigating to the pertinent information remains difficult – one either knows where the document is or the exact keywords to find it.

      Real customer scenario

      At one of ѻý’s clients, a team operating and building a new data platform was entangled in customer support, reducing its ability to create new functionalities.

      Allow me to briefly explain what a typical support request entailed:

      1. The customer raises a question to the platform team.
      2. A dedicated person from the platform team browses available Wiki documentation and searches for relevant information.
      3. Several minutes or even hours later, the person passes the information (a link) to the requestor.
      4. The answer may not be clear, prompting the need for another question to be asked.

      The weekly effort spent on customer support is increasing, and it is projected to reach 2.5 “FTE” permanently occupied with customer support activity by the end of 2024, as the number of platform users grows. Moreover, the response time for support requests is too long, leading to a poor customer experience.

      Talk to your data with Gen AI

      The client uses several cloud technologies, including Snowflake, as the core database and data warehouse solution. ѻý experts were quick to consider Snowflake Cortex AI technology as the key to creating a cutting-edge solution for tomorrow, addressing the client’s issues with operational costs.

      Why not ramp down on operational costs and ramp up customer interactions to a new level like this?

      1. Go straight to the chatbot and ask the question.
      2. Still have a question? Ask another question.
      3. Is the chatbot not able to answer your question? Contact a relevant person from the platform team.

      With this vision in mind, ѻý set out to implement a Gen AI-based chatbot that could answer customer questions efficiently. The chatbot, powered by the company’s extensive knowledge repositories, ensured that the provided answers were accurate and relevant. Additionally, the chatbot referenced the source Wiki documentation link as part of its responses, making it easier for users to find the information they needed.

      The solution worked 24/7, ensuring that customers could get help at any time of the day or night. This innovative approach aimed to reduce the burden on the customer support team and enhance the overall customer experience. By leveraging the power of Cortex AI and Retrieval-augmented generation “RAG”-based Gen AI, ѻý was poised to revolutionize how customer support was handled, paving the way for a more efficient future.

      High-level architecture

      The RAG architecture ѻý proposed for the Cortex AI chatbot consisted of three service types:

      • Cortex AI Functions for large language model (LLM) support: EMBED_TEXT_768, VECTOR_L2_DISTANCE, and COMPLETE)
      • Snowpark Container Services for retrieval front-end.
      • Snowflake tables as a vector store (native support of vectors as data types in Snowflake).

      Let me explain some basic terms:

      • RAG is an architectural approach that enhances the capabilities of large language models by incorporating an information retrieval system. This system retrieves relevant data or documents and provides them as context for the LLM, improving the accuracy and relevance of the generated responses.
      • Snowflake Cortex AI is an intelligent, fully managed service within Snowflake that allows businesses to leverage the power of artificial intelligence (AI) that enables users to quickly analyze data and build AI applications without the need for extensive technical expertise.
      • Snowflake Cortex AI Functions are a set of pre-built LLM functions that allow users to perform advanced data analysis and AI tasks directly within the Snowflake platform. These functions include capabilities such as text completion, sentiment analysis, and text summarization.
      • Snowflake Container Services is a fully managed container offering that allows users to deploy, manage, and scale containerized applications within the Snowflake data platform.

      By implementing a Gen AI chatbot based on Snowflake Cortex AI technology, evaluated by ѻý, the client can streamline the customer support processes, reduce operational costs, and enhance customer interactions. This innovative solution leverages the power of AI to provide accurate and timely answers, ensuring that users can easily navigate through vast knowledge bases and find the information they need.

      Cortex Search

      I described the way ѻý built a search tool for the client’s use case. The latest introduction of Cortex Search replaces the need for standalone vector tables and a self-managed embedding process with a fully managed RAG engine. This advancement not only streamlines development but also elevates the quality of outcomes with sophisticated retrieval and ranking techniques that merge semantic and lexical search. This effective approach is undoubtedly a game changer in building Gen AI RAG-based solutions.

      ѻý and Snowflake

      The collaboration between ѻý and Snowflake leverages Snowflake’s AI data cloud to enable businesses to unify and connect to a single copy of all data with ease. This partnership allows for the creation of collaborative data ecosystems, where businesses can effortlessly share and consume shared data and data services.

      ѻý and Snowflake are collaborating to develop generative AI solutions that leverage Snowflake’s advanced AI Data Cloud technology to drive innovation and enhance business outcomes across various industries.

      This strategic relationship has led to Snowflake naming ѻý the 2023 EMEA Global SI Partner of the Year.

      Autor

      Dawid Benski

      Delivery Architect Director, ѻý
      Dawid jako Delivery Architect Director koncentruje się na Big Data i chmurze, pracując głównie dla sektorów takich jak telco i automotive. Ma doświadczenie w bezpośredniej pracy z klientami, a także w zdalnym zarządzaniu zespołem, zarówno w Niemczech, jak i Indiach.

        The post Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI appeared first on ѻý Poland.

        ]]>
        905899
        Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? /pl-pl/insights/blogi-eksperckie/aplikacje-chmurowe-oparte-na-ai/ Wed, 12 Jun 2024 12:09:43 +0000 /pl-pl/?p=903297 The post Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? appeared first on ѻý Poland.

        ]]>

        Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć?

        Marek Matczak
        Jun 12, 2024

        W ostatnim czasie zespół ѻý miał okazję stworzyć kilka aplikacji biznesowych wykorzystujących sztuczną inteligencję, również tę generatywną – zawdzięczającą swoją niezwykłą popularność chatowi GPT. W tym artykule dzielę się z Wami swoimi spostrzeżeniami, które okazały się niezwykle istotne w trakcie budowania takich rozwiązań.

        Kiedy mówmy o generatywnej sztucznej inteligencji, to niemal od razu myślimy o tzw. dużych modelach językowych (ang. Large Language Models, LLMs), które są wprawdzie jej najbardziej rozpoznawalnym, ale nie jedynym, elementem. Budowanie niezawodnych aplikacji opartych na sztucznej inteligencji wymaga holistycznego podejścia, w którym korzystamy z wyspecjalizowanych, najczęściej chmurowych, narzędzi AI. Co więcej, używamy ich w oparciu o najnowsze wzorce projektowe z obszaru AI, a także stosujemy sprawdzone w wielu projektach techniki inżynierii oprogramowania.

        LLMy: zaglądamy do środka

        Zakres wiedzy LLMów jest ograniczony i zależy od zbioru danych użytego w trakcie trenowania modeli. Podczas budowania aplikacji biznesowych niesie to ze sobą dwa podstawowe wyzwania: jak wzbogacić duże modele językowe o wiedzę specyficzną dla danego biznesu, np. o treści rozporządzeń dla pracowników oraz jak zapewnić, że zmiany w tych rozporządzeniach będą od razu widoczne w trakcie używania tych modeli. Pierwszym pomysłem, który się nasuwa, jest wytrenowanie własnego modelu od podstaw, względnie dotrenowanie modelu bazowego, z użyciem swoich danych i powtarzanie tego procesu, gdy konieczna jest ich aktualizacja. Te podejścia są jednak w większości przypadków niepraktyczne ze względu na ogromne koszty idące nawet w setki milionów złotych. Bardziej efektywnym rozwiązaniem jest metoda uczenia kontekstowego (ang. in-context learning). Polega ona na tym, że w zapytaniu wysyłanym do modelu, oprócz właściwego pytania, np. “Jaka jest procedura zgłaszania awarii sprzętu?”, wysyłamy również treść dokumentu opisującego treści procedur, w tym tej, o którą pytamy. W metodzie uczenia kontekstowego duże modele językowe nie wykorzystują zatem wiedzy pozyskanej w trakcie ich trenowania, ale używają zdolności do znaczeniowej analizy tekstu (zarówno dokumentu, jak i właściwego pytania). Co więcej, ta analiza odbywa się w trakcie generowania odpowiedzi, mówiąc kolokwialnie “w locie”. Ta metoda ma jednak również swoje ograniczenie. Jest nim rozmiar zapytania, czyli tzw. promptu, a co za tym idzie ograniczona ilość wiedzy, o jaką możemy rozbudować nasz model. Z tym ograniczeniem można sobie jednak poradzić. Jednym ze sposobów jest zastosowanie popularnego wzorca RAG (ang. Retrieval Augmented Generation), polegającego na umieszczeniu w prompcie tylko tych fragmentów dokumentów, które są istotne z punktu widzenia zadawanego pytania. Drugim sposobem jest… pozbycie się tego ograniczenia i użycie LLMu pozwalającego na ogromny rozmiar promptu idący w tysiące stron tekstu (np. Gemini 1.5 od Google).

        RAG: inteligentne wyszukiwanie = mniejszy rozmiar promptu

        RAG wykorzystuje możliwości kolejnych elementów z obszaru AI: zanurzenie (ang. embeddings) i wektorowe bazy danych (więcej o tych elementach w dalszej części artykułu). Kombinacja tych elementów pozwala na znalezienie dopasowania znaczeniowego między pytaniem, wracając do naszego przykładu: “Jaka jest procedura zgłaszania awarii sprzętu?”, a fragmentami dokumentów, które z dużym prawdopodobieństwem zawierają odpowiedź na to pytanie. Dzięki technice RAG znacząco ograniczamy rozmiar promptu oraz zwiększamy jakość generowanych odpowiedzi, która może być niższa, jeśli prompt zawiera nieistotne informacje, czyli tzw. “szum”.

        LLMy z rozszerzonym oknem kontekstowym

        Najnowsze LLMy pozwalają na zbudowanie promptu o rozmiarze odpowiadającym nawet ponad tysiącu stronom tekstu. To sporo. W wielu wypadkach rozmiar ten pozwoliłby na umieszczenie w prompcie np. wszystkich procedur firmy. Nie musimy wówczas implementować wzorca RAG. Zaraz, zaraz… Ale co ze wspomnianym wyżej „szumem”, który może przecież obniżyć jakość generowanych odpowiedzi? Okazuje się, że testy przeprowadzone na modelach z dużymi oknami kontekstowymi (inna nazwa na rozmiar promptu), zwane obrazowo szukaniem igły w stogu siana, dały bardzo obiecujące rezultaty i zdają się nie potwierdzać obaw związanych ze wspomnianym „szumem”: udało się w większości testów znaleźć przysłowiową igłę.

        Które podejście wybrać?

        RAG czy LLM z rozszerzonym oknem kontekstowym? W podjęciu decyzji może pomóc analiza kosztów obu rozwiązań. Koszt zapytania do LLMu zależy od wielkości promptu, ale w przypadku rozwiązania opartego na RAG musimy doliczyć koszt wektorowej bazy danych, obliczania zanurzeń oraz rozwiązania samego w sobie.

        Dodatkowym argumentem przy wyborze rozwiązania powinna być ocena jakości generowanych odpowiedzi. Jak to zrobić? O tym w dalszej części artykułu.

        Wykorzystanie kreatywności (lub jej ograniczenie)

        Jedną z najbardziej spektakularnych cech LLMów jest ich kreatywność. Szukasz inspiracji, gdzie pojechać na wakacje i jak zaplanować tam czas? LLM jest w stanie wygenerować odpowiedź w ciągu kilku sekund! Ale uwaga: ta odpowiedź może zawierać zmyślone lub nieprawdziwe informacje (halucynacje). Dokładnego przeciwieństwa, czyli ograniczenia halucynacji, a zamiast kreatywności – odpowiedzi bazującej na faktycznych dokumentach, oczekiwalibyśmy natomiast od wirtualnego asystenta odpowiadającego na wspomniane wcześniej pytanie: “Jaka jest procedura zgłaszania awarii sprzętu?” Jak to zrobić? Okazuje się, że LLMy mają parametry, takie jak temperatura czy top_k, które umożliwiają kontrolowanie tych aspektów. Na przykład ustawienie temperatury na 0 i top_k na 1 sprawi, że odpowiedzi będą bardziej faktyczne.

        Aby zwiększyć wiarygodność odpowiedzi, możemy dodać linki do dokumentów źródłowych, a nawet opatrzyć odpowiedź cytatami z tych źródeł. Możemy również poinstruować model (o tym jak to zrobić, w dalszej części artykułu), aby w razie, gdy nie można było znaleźć odpowiedzi w samym prompcie, nie „halucynował”, ale odpowiedział po prostu „nie wiem”. Warto wspomnieć przy tej okazji, że całkowite wyeliminowanie halucynacji z LLMów, które są modelami statystycznymi, a więc niedeterministycznymi, nie jest na ten moment możliwe. Należy ten fakt wziąć pod uwagę projektując rozwiązanie biznesowe. W niektórych wypadkach nie da się zupełnie wyeliminować człowieka w podjęciu decyzji biznesowej (ang. human in the loop).

        Wektorowe reprezentacje: cichy bohater

        Zanurzenia są wektorową reprezentacją znaczenia pojedynczego słowa czy fragmentu tekstu (ale również obrazu lub dźwięku). Ta „sucha” definicja nie oddaje jednak ogromnych możliwości zastosowania tego elementu sztucznej inteligencji w budowanych aplikacjach biznesowych. Mówiąc o znaczeniu mam na myśli jego cały kontekst z uwzględnieniem wielu niuansów (np. kulturowych). Zresztą najlepszym dowodem potwierdzającym te możliwości jest fakt, że zanurzenia są wykorzystywane w trakcie trenowania samych LLMów, a także za każdym razem, gdy wysyłamy do nich nasz prompt. Jakie mogą być potencjalne rozwiązania biznesowe z użyciem zanurzeń? Na przykład wyszukiwanie kontekstowe zamiast tradycyjnego bazującego na słowach kluczowych albo system rekomendacji produktów w oparciu o aktualny koszyk zamówień.

        Budując aplikacje biznesowe z elementami AI najczęściej zaczynamy od LLMa, ale może się okazać, że nie jest on w ogóle potrzebny, bo to właśnie wektorowe reprezentacje są rozwiązaniem naszego wyzwania biznesowego. Warto też sprawdzić w dokumentacji technicznej czy wybrany model wektorowych reprezentacji wspiera język tekstów danej aplikacji (np. opisy produktów).

        Wektorowa baza danych: znajdź podobieństwa

        W jaki sposób wyszukać podobne znaczeniowo fragmenty dokumentów albo – jak wspomniano wcześniej w metodzie RAG – znaleźć te zawierające odpowiedź na zadane pytanie? Z pomocą przychodzą wektorowe bazy danych, które umozliwiają przechowywanie wektorów, a wraz z nimi np. tekstów. Co więcej, produkty te umozliwiają efektywne przeszukiwanie wielowymiarowych przestrzeni wektorowych w celu znalezienia tych znajdujących się blisko siebie, co za tym idzie, odpowiadających im podobnych znaczeniowo tekstów.

        Jaką bazę wybrać?

        Jaki produkt bazodanowy wybrać? Choć na rynku jest sporo specjalizowanych produktów, np. Pinecone, Amazon Kendra albo Azure AI Search, rozważyłbym użycie tradycyjnej, relacyjnej bazy danych z rozszerzeniem wektorowym, np. PostgreSQL i pgvector. Szczególnie w początkowej fazie budowania aplikacji, kiedy nie znamy jeszcze dokładnych wymagań wydajnościowych, warto postawić na takie hybrydowe rozwiązanie, tym bardziej, że w ten sposób znacząco ograniczymy koszty chmury.

        Inżynieria Promptów: język AI

        Treść, którą wysyłamy do LLMa, czli tzw. prompt, może zawierać nie tylko samo pytanie, ale również instrukcje wraz dodatkowymi informacjami. Na przykład, w opisywanym wcześniej podejściu uczenia kontekstowego, prompt zawiera instrukcję, aby odpowiedzieć na pytanie w oparciu o załączone fragmenty dokumentów. Nie jest to niczym innym niż programowaniem w języku naturalnym! Na potwierdzenie tych słów warto zacytować tutaj Andreja Karpathy’ego, badacza i popularyzatora AI: The hottest new programming language is English. Tak jak w tradycyjnym programowaniu posługujemy się pewnymi wzorcami, tak i w tym swoistym języku AI takich potrzebujemy. Sztukę tworzenia promptów określa się mianem inżynierii promptów. Choć ten termin brzmi bardzo poważnie, nie trzeba być tutaj specjalistą. Według mnie podstawowe techniki inżynierii promptów powinien znać każdy, a ich nauczanie powinno zacząć się już w szkole podstawowej!

        Oprócz podstawowych technik mamy również zaawansowane, takie jak Chain-of-Thought czy ReAct. Ta ostatnia pozwala na złożone wnioskowanie angażujące wiele źródeł danych, zarówno wewnętrznych w danej organizacji, jak i zwnętrznych, np. Wikipedia.

        Jakość ma znaczenie: struktura ponad wszystko

        Jakość wygenerowanych przez LLM odpowiedzi w dużym stopniu zależy od jakości danych wejściowych. Formaty danych, takie jak Markdown, JSON czy HTML są ustrukturyzowane, np. są podzielone na rozdziały, w nich akapity, a w nich z kolei mogą być tekst czy tabele. Prompty tworzone w oparciu o takie ustrukturyzowane dane, ułatwiają LLMom zrozumienie kontekstu, a w konsekwencji generowanie sensownych odpowiedzi.

        Dane nieustrukturyzowane, np. pliki w formacie PDF, obrazy czy diagramy, mogą wymagać wstępnego przetwarzania (tradycyjnie lub z użyciem sztucznej inteligencji) lub zastosowania multimodalnych LLMów (np. akceptujących na wejściu obrazy), np. Gemini Pro (Vision) czy GPT-4o, aby poprawnie zrozumieć kontekst. Posłużmy się przykładem. Pewien dokument PDF zawiera, oprócz tekstu, złożony wykres ilustrujący trendy sprzedaży. Multimodalny LLM potrafi wygenerować słowny opis tego wykresu, który wraz z pozostałą częścią dokumentu może posłużyć do wygenerowania odpowiedzi na pytanie dotyczące sprzedaży.

        Aby poprawić jakość, warto pozyskać od użytkowników aplikacji informację zwrotną dotyczącą ich subiektywnej oceny trafności odpowiedzi. Przykładowa implementacja może mieć formę przycisków “lubię/nie lubię” czy formularza. Zebrane w ten sposób sugestie mogą posłużyć np. do doprecyzowania instrukcji w prompcie.

        Testowanie w erze sztucznej inteligencji

        Niedeterministyczny charakter LLMów oznacza, że powtarzając test dla tego samego wejścia możemy otrzymać za każdym razem nieco inną odpowiedź. Jak zatem testować takie aplikacje? Z pomocą znów przychodzi nasz “cichy bohater” – zanurzenie. Aby porówać oczekiwane odpowiedzi z tymi wygenerowanymi przez LLMy, wystarczy w obu wypadkach znaleźć wektorowe reprezentacje i porównać odległości między tymi wektorami. Wówczas nawet jeśli odpowiedź wyrażona jest w nieco inny sposób, ale nadal jest prawidłowa, można test uznać za pozytywny.

        W trakcie budowania aplikacji, szczególnie chatbotów, testowanie promptów i ich odpowiedzi jest niezmierne ważnym elementem. Pamiętajmy, że prompt jest w zasadzie programem napisanym w języku naturalnym, więc konsekwencje braku testów są podobne do nieprzetestowanego kodu źródłowego. W przypadku niedeterministycznych LLMów brak testów promptów ma jeszcze większy negatywny wpływ na stabilność i niezawodność aplikacji.

        Bezpieczeństwo: Tu nie ma kompromisów

        Elementy AI w aplikacjach nie są wyjątkiem I również wymagają dodatkowej uwagi z punktu widzenia bezpieczeństwa. Jeśli do LLMa wysyłamy w prompcie treści spoza aplikacji (np. wprowadzone przez użytkownika albo przysłane mailem) musimy je sprawdzić czy nie zawierają np. instrukcji aby ujawnić poufne informacje albo kierują rozmowę na tematy nie związane z przenaczeniem danej aplikacji (tzw. prompt injection). Podobnie z generowanymi odpowiedziami: należy sprawdzić czy te nie zawierają treści mogących wpłynąć negatywnie na reputację danej firmy. Na szczęście są na rynku narzędzia, zarówno komercyjne, jak i open source, które umożliwiają skutecznie wdrożyć te środki bezpieczeństwa.

        Miłego kodowania!

        Budowanie aplikacji chmurowych opartych na sztucznej inteligencji jest sporym wyzwaniem. Temu wyzwaniu można jednak podołać, jeśli pozna się elementy oraz narzędzia AI, a także zastosuje wzorce i dobre praktyki z tego obszaru. Właśnie przybliżenie tych ostatnich było celem mojego artykułu. Mam nadzieję, że moje spostrzeżenia pomogą w tworzeniu wydajnych, bezpiecznych i innowacyjnych rozwiązań opartych na sztucznej inteligencji. Miłego kodowania!

        The post Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? appeared first on ѻý Poland.

        ]]>
        903297
        Hakaton QL future /pl-pl/insights/blogi-eksperckie/hakaton-ql-future/ Wed, 10 Apr 2024 11:31:43 +0000 /pl-pl/?p=901996 The post Hakaton QL future appeared first on ѻý Poland.

        ]]>

        ѻý partnerem hakatonu QL future

        Marek Józef Kowalik
        Apr 10, 2024

        ѻý zostało Partnerem hakatonu QL Future – wydarzenia, które przybliża tematykę pozytywnego wpływu obliczeń kwantowych na obszary zdrowia i bezpieczeństwa.

        W dniach 13-14 kwietnia br. w Poznaniu odbędzie się hackaton QL Future. To wydarzenie, którego celem jest zorganizowanie przestrzeni na burzę mózgów dla młodych ludzi oraz opracowania innowacyjnych pomysłów i rozwiązań związanych z kwestiami bezpieczeństwa i zdrowia. ѻý Polska wraz z innymi firmami będzie wspierać PCSS (Poznańskie Centrum Superkomputerowo-Sieciowe) w organizacji tego wydarzenia. W tegorocznej edycji zespoły biorące w nim udział będą miały szansę pracować nad zadaniem jakie sformuuje grupa ekspertów i ekspertek z naszej firmy.

        Podczas hackatonu uczestnicy i uczestniczki będą mieli niepowtarzalną okazję wykorzystać moc obliczeniową pierwszego w Polsce komputera kwantowego.

        Hackaton stanowi kontynuację ubiegłorocznej, pierwszej edycji skupionej na rozwiązaniach dotyczących życia ludzi, naszej planety i klimatu. ѻý również wtedy było jednym z Partnerów, odpowiedzialnych za organizację jednego z wyzwań i mentoring osób uczestniczących w imprezie. Poza tym przedstawiciele naszej firmy wchodzili w skład jury. Aby przybliżyć Wam to wydarzenie, poniżej przedstawiam podsumowanie ostatniej edycji.

        Podsumowanie QL Future 2023 – 27-28 Maj 2023:

        Hackaton składał się z pięciu wyzwań związanych z: adopcją infrastruktury pojazdów elektrycznych, redukcją emisji gazów cieplarnianych, analizą danych medycznych, audytem węglowym w łańcuchach dostaw oraz wpływem finansowym podnoszącego się poziomu mórz. Dostępne były dwie formy opracowywania rozwiązań: podejście techniczne lub koncepcyjne.

        Przez dwa dni, około 60 osób z różnym zapleczem zawodowym i wachlarzem doświadczeń, podzielonych na grupy pracowało nad jednym z zaprezentowanych wyzwaniań. Każdy z zespołów mógł wybrać sobie zadanie nad jakim będzie pracować w czasie hackatonu.

        Zespół ѻý Quantum Lab sformułował i zaprezentował jedno z wyzwań dla uczestników i uczestniczek, związane z tematem „skutki finansowe wynikające z podnoszącego się poziomu mórz”, a także zorganizował godzinny warsztat wprowadzający biznesowy kontekst wyzwania oraz podstawy teoretyczne finansowego modelu ryzyka klimatycznego na komputerach kwantowych wraz z przykładową implementacją prostego modelu na syntetycznych danych. Część osób podjęła to wyzwanie i przygotowała własny model w oparciu o realne dane na podstawie zaprezentowanego przez ѻý syntetycznego modelu ryzyka klimatycznego.

        Podczas hackathonu mentorzy i mentorki ze strony partnerów oraz zespołu PCSS byli do dyspozycji osób biorących udział w wydarzeniu, aby pomóc im we wdrażaniu teorii obliczeń kwantowych oraz ujęciu tego rozwiązania z biznesowego punktu widzenia. Wyzwania były skupione na różnorodnych obszarach, ale poszczególnym grupom w tym krótkim czasie udało się w imponujący sposób ukształtować i dopracować swoje rozwiązania.

        Zespół pracujący nad wyzwaniem rzuconym przez ѻý zajął trzecie miejsce w części technicznej, a dwa uczestniczące zespoły, z samego ѻý, stanęły na podium w ścieżce koncepcyjnej [6]. Pascal Bertin, Magdalena Baczkowska, Jakub Styszyński, Arkadiusz Janusz i Arkadiusz Kowalski zajęli trzecie miejsce ze swoją propozycją planowania ładowarek pojazdów elektrycznych z wykorzystaniem tzw. „Nurse Scheduling Problem” w wersji wyżarzania kwantowego. Michał Hordecki, Sofya Aksenyuk, Agata Wojciechowska, Wiktoria Bosiacka i Aleks Roszyk zdobyli drugą nagrodę za swoje rozwiązanie optymalizujące audyt emisji dwutlenku węgla [7].

        Jury składało się z ekspertów biznesowych z różnych dziedzin. Członkami komitetu technicznego byli Piotr Biskupski (IBM Security SME), Piotr Beńke (CTO i dyrektor ds. sprzedaży technicznej, IBM), dr Krzysztof Kurowski (zastępca dyrektora PCSS) i Piotr Rydlichowski (koordynator ds. technologii kwantowych, IBM). W skład komitetu koncepcyjnego weszli Michał Mikucki (Site Head, ѻý Poznań), Agata Chudzińska (AI Manager w Blue.ai i Apollogic), Agata Kuźmińska (Prezes FIZP – Fundacja Green Future Institute dla województwa wielkopolskiego) i Paweł Borucki (CEO Centrum Zdrowia La Vie).

        Ponadto jury zauważyło, że wiele rozwiązań koncepcyjnych było wystarczająco szczegółowych z punktu widzenia algorytmicznego i można je było przedstawić również jako rozwiązania techniczne.

        Podejście techniczne skupiało się na wdrożeniu – podejściu do problemu z perspektywy algorytmicznej. Głównymi kryteriami tego podejścia była wykonalność i skalowalność rozwiązania, poziom przyjazności dla użytkownika, technologiczne zaawansowanie i efektywność pod względem zużycia energii. Podejście koncepcyjne skupiało się na zastosowaniu i komercjalizacji rozwiązania. Uczestnicy pracowali nad rozwiązaniami opartymi na analizie rynku ze zdefiniowanymi grupami docelowymi. Podejście to było oceniane pod kątem atrakcyjności, użyteczności i wykonalności, a także skalowalności i kompletności.

        Patrząc w stronę komercjalizacji technologii kwantowych w Polsce

        Hackaton QL Future był nie tylko świetną okazją do zdobycia doświadczenia przez ludzi pragnących rozwijać swoją wiedzę w obszarze kwantów, ale także dobrym momentem do rozmowy na temat zastosowań technologii kwantowych w Polsce. Dr Voica Radescu (kierownik IBM Quantum na region EMEA) otworzyła wydarzenie, przedstawiając podejście do obliczeń kwantowych, opowiadając o tym, jak i gdzie może ono mieć pozytywny wpływ na naszą planetę. Następnie przedstawiciele PCSS przedstawili znaczenie zarówno ścieżki technicznej, jak i koncepcyjnej.

        Michał Mikucki, Site Head ѻý Poznań, będącym członkiem jury w części koncepcyjnej, podzielił się swoją wizją dotyczącą wagi wydarzenia:

        “Obliczenia kwantowe to jedna z nowych technologii, która jest bardzo obiecująca i przełomowa. Bycie twórcami lub przynajmniej wczesnymi adaptatorami rozwiązań w tej dziedzinie może mieć kluczowe znaczenie dla przyszłego biznesu. Jestem przekonany, że szerzenie wiedzy tutaj, w Poznaniu, ale także we wszystkich miastach, w których działa ѻý, pomoże nam wykorzystać przewagę biznesową. W ѻý innowacja jest wpisana w nasze DNA, dlatego musimy dbać o to, aby utrzymać wiodącą pozycję w technologiach takich jak obliczenia kwantowe.”

        Marek Kowalik, programista z ѻý Quantum Lab, który mentorował uczestnikom hackatonu, podzielił się swoją opinią na temat prezentowanych rozwiązań:

        “Wyzwania hackathonu musiały być zaadresowane za pomocą dobrze uzasadnionych rozwiązań zawierających element kwantowy. Wymagało to znajomości algorytmów kwantowych, podstawowej wiedzy o branży dla podjętego rozwiązania i znalezienia przypadków użycia oraz implementacji/struktury, które by to wspierały. Zespołom udało się opracować rozwiązania o takiej jakości w zaledwie 24 godziny. Niektóre z nich były dość futurystyczne, inne bardziej pragmatyczne i wykonalne, ale wszystkie wykazały biegłość w rozwiązywaniu problemów branżowych i stosowaniu metod opartych na obliczeniach kwantowych. Ma to kluczowe znaczenie dla zamknięcia luki między teorią kwantową a wartością dodaną w biznesie.”

        Nota o organizatorach:

        PCSS jest ośrodkiem infrastrukturalnym „zapewniającym dostęp do światowej klasy e-Infrastruktury dla środowiska naukowego oraz badawczo-rozwojowego” [2]. Jednym z obszarów prac ośrodka jest informatyka kwantowa i komunikacja kwantowa [3]. 4 lutego 2022 PCSS dołączyło do IBM Quantum Network, uzyskując dostęp do centrum obliczeń kwantowych IBM i rozpoczęło współpracę „w celu opracowania technologii obliczeń kwantowych i ich zastosowań, w tym zaawansowanych rozwiązań w zakresie sztucznej inteligencji, technologii kosmicznych, metrologii i modelowania kryzysowego” [4] [5] .

        References:

        [1]

        [2] official site

        [3]

        [4]

        [5]

        [6]

        [7] stream

        Marek Józef Kowalik

        Junior Data Scientist, Quantum Developer

          The post Hakaton QL future appeared first on ѻý Poland.

          ]]>
          901996
          Jak nie tworzyć CV? /pl-pl/insights/blogi-eksperckie/jak-nie-tworzyc-cv/ Tue, 05 Mar 2024 09:27:17 +0000 /pl-pl/?p=901086 Blogpost by Michalina Żak

          The post Jak nie tworzyć CV? appeared first on ѻý Poland.

          ]]>

          Jak nie tworzyć CV?

          Michalina Żak
          Mar 5, 2024

          Każdy z nas był na tym etapie kariery: poszukiwanie pracy, przygotowywanie w pocie czoła swojego CV i dreszczyk niepewności. Z sercem na ramieniu aplikujemy na ogłoszenia o pracę. I nagle otrzymujemy powiadomienie – „przepraszamy, Twoja kandydatura nie będzie dalej rozpatrywana”. Wielu z nas w tej sytuacji odczuwa smutek, wstyd, zaczynamy się zastanawiać – może to ze mną jest coś nie tak, ponieważ rekruter_ka do mnie nie oddzwania?

          Wykorzystam moje doświadczenie w pracy w ѻý aby powiedziec Ci, co mogłeś zrobić źle.

          Poznaj 5 wskazówek,  jak nie tworzyć CV.

          • Wygląd dokumentu– czarny (lub bardzo jaskrawy kolor), fantazyjna czcionka, brak struktry w dokumencie, błędy ortograficzne.

          Pamiętaj – osoba z działu rekrutacji otwiera Twoje CV bezpośrednio na swoim komputerze lub za pomocą specjalnych programów. Często w takiej sytuacji plik jest kompresowany więc pogarsza się jego jakość. CV staje się dla rekrutera kompletnie nieczytelne ponieważ często litery rozmywają sie na tle, ustawienia ekranu powodują, że ciężko jest przeczytać numer telefonu. Niestaranność z jaką przygotowałeś swoje CV świadczy o tym, że nie zależy Ci na rzetelnym wykonywaniu swojej pracy. Wysyłasz komunikat, że jesteś osobą niedokładną – rekruter lub rekruterka od razu odrzuci Twoje CV bez analizowania Twoich komeptencji.

          • Wykorzystanie w CV zdjęcia z wakacji, z ulubionym zwierzakiem, w wyzywającym ubiorze/makijażu.

          Dodanie zdjęcia do CV to świetny pomysł. Sprawia, że Twoja aplikacja lepiej zapadnie w pamięć, poprzez zapamiętanie nie tylko Twoich, ale i twarzy. Jeśli jednak nie masz profesjonalnego zdjęcia, lub takiego, które możesz wykorzystać do stworzenia oficjalnego dokumentu, to lepiej zrezygnuj z dodania swojego profilowego zdjęcia z mediów społecznościowych. Musisz to wiedzieć – CV jest dokumentem, który świadczy o Twoim profesjonaliźmie oraz umiejętnościach. Nawet najlepsze humorystyczne zdjęcie, jakie posiadasz sprawi, że osoba rekrutująca lub Twój przyszły manager czy managerka, uzna Cię za osobę niegodną zaufania, niedojrzałą lub nierzetelną i odrzuci Twoją aplikację.

          • Brak wypisanych umiejętności.

          Znasz język angielski – świetnie! W wielu firmach to podstawowa umiejętność i warto w swoim CV dodać informację o znajomości języków obcych. Wyjeżdzałeś wakacyjnie do pracy do Niemiec i ten język jest dla Ciebie fraszką? Dopisz komunikatywną znajomość języka niemieckiego! Pomagałeś w rodzinnej firmie, wystawiałeś faktury, kompletowałeś zamówienia? Świetnie! Korzystasz z programu Excel do tworzenia tabel, kontrolowania swoich wydatków – warto wpisać znajomość tego programu. Pamiętaj – CV jest reklamą Twojej osoby i warto wpisać tam wszystkie umiejętności i mocne strony, jakie posiadasz.

          • Brak lokalizacji, w której chcesz pracować.

          Większość firm zatrudnia pracowników do pracy w formie stacjonarnej, jednak w ѻý Polska mamy możliwość pracowania w modelu hybrydowym. Jesteśmy w stanie połączyć zalety pracy w biurze z pracą w domu. Jednakże, jeśli nie dodasz informacji na temat swojej lokalizacji lub miejsca, w którym chcesz pracować rekruter może zrezygnować z podejmowania prób kontaktu z Tobą. W takiej sytuacji zostanie wybrana osoba, która jasno wskazała swoją lokalizację.

          • Jawna nieszczerość.

          Przygotowując CV ważne jest, aby wpisać do niego swoje doświadczenie i umiejętności, które naprawdę posiadasz. Bardzo często widuje się CV, które budzą nieufność. Przykładowo osoba, która twierdzi, że zna język „Germany” albo „Finlandzki” na poziomie biegłym wzbudza zdzwienie. Osoba zajmująca się rekrutacją będzie analizowała Twoje CV, więc aby uniknąć nieprzyjemności warto postawić na szczerość. Teraz wiesz już na jakie aspekty zwrócić uwagę przy tworzeniu CV. Wiosna jest już coraz bliżej, więc wielu z nas szykuje się do wiosennych porządków. Pomyśl czy nie szukasz zmiany – odkurz swoje CV i sprawdź ogłoszenia na stronie ѻý Polska w zakładce „Kariera”. Może szukamy siebie na wzajem?

          The post Jak nie tworzyć CV? appeared first on ѻý Poland.

          ]]>
          901086