Warto sięgać po sztuczną inteligencję. Byle nie po omacku
Wstawmy popcorn, usiądźmy wygodnie i obserwujmy. Innowacje pojawiają się niemal każdego dnia, naprawdę jest i będzie co oglądać. Osobiście życzyłabym sobie więcej prospołecznych ulepszeń, takich spod znaku skróconych kolejek, lepiej zorganizowanej logistyki, dostępności dla wykluczonych. I wszędzie tam widzę szansę dla specjalistów od AI. Ale też legislatorów, bo ten postęp musi iść ramię w ramię z odpowiedzialnością – mówi dr Inez Okulska, adiunkt, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK PIB, dyrektor Departamentu Innowacji i Technologii w Ministerstwie Cyfryzacji.
Dr Inez Okulska. Fot. Ministerstwo Cyfryzacji.
Jak wypadają polscy naukowcy pod względem prac badawczych skoncentrowanych na rozwoju AI? Czy obszar ten może urosnąć do rangi naszej specjalizacji?
Inez Okulska − Niemiecki aktor i polonofil, Steffen Möller, żartował kiedyś w swojej książce, że Polacy mają tendencję do doszukiwania się rodzimych korzeni w każdej liczącej się dziedzinie kultury, nauki czy biznesu, że według nas nawet Kaczor Donald był Polakiem − i pisał to już w czasach, zanim ten żart podwójnie śmieszył. I kiedy po niedawnym hype na konwersacyjną sztuczną inteligencję pod postacią ChatGPT czytaliśmy rozentuzjazmowane nagłówki, że aż 20 proc. OpenAI, czyli jej producenta, stanowią Polacy, to nie sposób się było nie uśmiechnąć. Pomijając jednak formę komunikacji, Polacy naprawdę mogą pochwalić się coraz szerszym portfolio sukcesów w obszarze sztucznej inteligencji. Mamy mnóstwo przełomowych rozwiązań komercyjnych, np. w obszarze medycyny, jak Ailiscare i Solvemed czy MIM Fertility, i biometrii, choćby PayEye do biometrycznej weryfikacji transakcji płatniczych, ale też światowej klasy prototypów, choćby system wspomagania operacji na otwartym mózgu, pozwalający skrócić ją aż trzykrotnie, opracowany w NASK PIB i okrzyknięty mianem „moonshot” przez Mathworks. Za granicą Polacy również odnoszą zauważalne sukcesy, nie tylko jako współtwórcy, lecz także pełnoprawni założyciele firm AI, jak np. Iceye z siedzibą w Finlandii. To pokazuje, że kształcimy naprawdę wybitnych specjalistów.
Nie zgodzę się z Dominikiem Janesem, który niedawno powiedział, że naszym ograniczeniem jest brak ośrodków badawczych. Uważam, że mamy światowej klasy potencjał, wiedzę, kreatywność i odwagę w odkrywaniu – często brakuje nam natomiast mechanizmów promocyjnych, zrozumienia roli i wagi tworzenia marek, tych produktowych i tych osobistych, w tym naukowych, które pozwalają nieść dobrą nowinę o fantastycznych osiągnięciach technologicznych. W efekcie niejednokrotnie nie jest o nas głośno, bo… nie jest o nas głośno, a nie dlatego, że nie ma się czym chwalić.
Drugi bloker – i to jest problem szerszy, bo raczej europejski niż wyłącznie polski – to wciąż odczuwalne luki lub skostniałe formy regulacji prawnych, które nie nadążają za rzeczywistością i jej aktualnymi potrzebami. I wtedy na progu, przebierając nóżkami, stoją warte inwestycji i wdrożenia gotowe pomysły naszych rodzimych autorów, ale te drzwi na świat wciąż są nie dość otwarte. Reasumując, szansa jest, na wyciągnięcie ręki, teraz tylko nie pomylić kierunku ruchu tej ręki i mamy to.
Jakie sektory gospodarki i sfery życia zyskują najwięcej na wdrożeniach wykorzystujących algorytmy AI?
Inez Okulska − Taki rzetelny raport, który uwzględniłby wszystkie istotne czynniki, czyli zwiększenie sprzedaży, optymalizacje kosztów, logistyki, wzrost zadowolenia klienta, rozpoznawalności marki, otwarcie się na nowe rynki etc., jest jeszcze przed nami. Dotychczasowe obserwacje warto bowiem zrewidować po wejściu na masową skalę rozwiązań opartych na generatywnej sztucznej inteligencji, powiedzieć „sprawdzam” i zobaczyć, ile z tego okazało się fajerwerkiem, a ile kamieniem milowym dla kluczowych procesów.
Na pewno branża marketingu oraz e-commerce ochoczo i z sukcesem korzysta już z wdrożeń AI, mocno na celowniku są również szeroko rozumiane media, ale to ma swoje i jasne i ciemne strony. W skrócie: automatyzacja moderacji i filtrowania pod kątem bezpieczeństwa, m.in. dzieci – tak, generacja treści – niekoniecznie. Rozwiązania AI mają duży potencjał w obszarze edukacji, ale tutaj trzeba uważać, by dopełniały, jak np. Khan Academy czy Duolingo, a nie kanibalizowały, jak np. w przypadku Chegg. Ja najbardziej liczę na to, co dotyczy największej liczby odbiorców, a więc rozwiązania usprawniające administrację publiczną, sądownictwo, opiekę medyczną. Mówię oczywiście o automatyzacji tych procesów, które powodują opóźnienia, a nie o oddawaniu w ręce AI krytycznych decyzji.
Co wskazałaby pani jako główny mankament coraz doskonalszych, ale wciąż dalekich od ideału rozwiązań bazujących na sztucznej inteligencji?
Inez Okulska − Ludzi. To my odpowiadamy za wszystkie kluczowe elementy procesu – od zaprojektowania eksperymentu, przez opracowanie algorytmu, zebranie i anotację danych, po wdrożenie i wykorzystywanie sztucznej inteligencji. Gdy istnieje tak wiele przystanków krytycznych, to na każdym z nich coś może pójść nie tak. To my, ludzie, czasem nazbyt zachłyśnięci możliwościami, czasami pod presją czasu i oczekiwań, chcemy automatyzować coraz więcej i szerzej. W tym wyścigu zbrojeń czy konkursie talentów, zwał jak zwał, często doradcami są pośpiech i ego, a to duet o wiele groźniejszy niż kombinacja funkcji nieliniowych, choćby najbardziej złożonych. A ta kombinacja funkcji, czyli matematyka stojąca za AI, to ostatecznie też przede wszystkim odzwierciedlenie ludzkich koncepcji i ambicji. Na szczęście dotychczas w większości przypadków cele były szczytne, idee godne, a realizacja rzetelna. Ale tak jak same algorytmy uczenia nigdy nie mają 100-procentowej skuteczności, tak my nie mamy pełnego sukcesu, jeśli chodzi o obchodzenie się człowieka z tym nowym, niesamowicie atrakcyjnym krajobrazem możliwości. AI to też trochę symbol potęgi, władzy. A te, jak wiadomo, różnie wypadają w parze z ludzką naturą.
Ostatnio istną plagą jest wymaganie od sztucznej inteligencji absurdalnych umiejętności i ocenianie jej możliwości przez pryzmat tychże. To jakby mieć pretensje do auta, że nie parzy kawy podczas jazdy. Wystarczy raz zasiać to ziarenko, puścić wodze fantazji i… no w sumie dlaczego nie parzy? A mogłoby, prawda? Już widzę te technologie, ten spot reklamowy z wciągającą narracją o spełnianiu wyimaginowanych potrzeb. Tylko, no właśnie, po co miałby to robić? Czy „bo może” powinno być naczelną odpowiedzią na pytanie o powód dokładania kolejnych funkcji w systemach czy urządzeniach? I trochę tak jest ze sztuczną inteligencją – są rzeczy, które potrafi, takie, których nie, ale w jednym i w drugim przypadku równie ważna co strojenie modelu, wymyślanie kolejnej architektury i sposobu reprezentacji danych jest odpowiedź na pytanie, czy to jest proces, który rzeczywiście zyska na automatyzacji. Czy naprawdę ktoś tego potrzebuje? Więc np. duże modele konwersacyjne wciąż średnio radzą sobie z pewnym zestawem pytań „wiedzowych” czy zagadkami logicznymi, ale, na litość, czy one naprawdę muszą być w tym dobre?
W dobie zalewu informacjami, bombardowania nas specyficzną formą pisemną, myślę, że jednym z istotnych zastosowań AI może być streszczenie, podsumowanie, ekstrakcja najistotniejszej treści. I tu rzeczywiście warto wciąż kręcić pokrętłami, szukać rozwiązań, bo wciąż jest to punkt newralgiczny − bardzo podatny na przekłamania i pomyłki. Podobnie generowanie tekstu, np. w języku polskim, wciąż jest dość zawężone stylistycznie − dość szybko można rozpoznać tekst pisany przez AI ze względu na swoistą „okrągłość” lub niepoprawną gramatykę. To akurat problem ograniczonych zasobów w języku polskim i pracujemy, m.in. z fundacją SpeakLeash, znaną też jako Spichlerz, i Ministerstwem Cyfryzacji, nad tym, by temu zaradzić − zebrać i udostępnić odpowiednie zasoby.
Poza tym wciąż istotnym wyzwaniem jest analiza multimodalna, czyli taka, która musi uwzględnić wiele kanałów przekazu na raz, tj. obraz, tekst, dźwięk. O ile nie jest konieczne, by AI bawiła się równie dobrze jak my, rozumiejąc śmieszne filmiki z kotami, o tyle w domenie cyberbezpieczeństwa, a więc m.in. wykrywania treści drastycznych czy szkodliwych, taka automatyczna moderacja ma już duże znaczenie. I wciąż wymaga wielu nakładów, by rzeczywiście zadziałać poprawnie. Jednocześnie AI coraz lepiej wypada jako kompan, gdy sugeruje, a nie ostatecznie decyduje. Wówczas nawet niższy procent ogólnej skuteczności może się przełożyć bezpośrednio na lepszy wynik moderacji.
Czy mimo wielu korzyści, jakie niesie sztuczna inteligencja, postępy w pracach nad jej udoskonalaniem można odczytywać jako zagrożenie?
Inez Okulska − Kontynuując poprzednią myśl: to nie w samej matematyce należy upatrywać zagrożenia, a w tych, którzy przeforsują jej nieetyczne zastosowanie. Dlatego tak ważne jest opracowywanie ram prawno-etyczno-biznesowych. To bardzo cienka lina, na której trzeba tak balansować, by umożliwiać postęp, a jednocześnie nie deptać obywateli. I w drugą stronę – w imię rozbuchanych teorii spiskowych nie blokować tego postępu. Jednym z takich aspektów są dane medyczne. Z jednej strony podniesione do rangi najwrażliwszych, bo można z nich tak wiele wyczytać. Ale z drugiej, pamiętajmy, że można z nich wyczytać między innymi bezcenne wzorce, które mogą ujarzmić najtrudniejsze przypadki chorób, np. dotąd nieuleczalnych.
Jakie zabezpieczenia są kluczowe w pracach z zakresu inżynierii lingwistycznej, aby kontrolować niepożądane skutki uboczne postępu?
Inez Okulska − Dane, dane i jeszcze raz dane, a na deser metryki. Na początku trzeba poświęcić mnóstwo czasu i uwagi na dobór, zakres, wymiar i metodę reprezentacji danych językowych. Niektóre trzeba poddawać wstępnemu przetwarzaniu, np. czyścić z najczęstszych słów, sprowadzać do form podstawowych, usuwać liczby i inne znaki niebędące literami, zamieniać na małe litery itd. Innym razem wszystkie te cechy, choć z pozoru redundantne i „śmieciowe”, okazują się tymi najbardziej różnicującymi interesujące nas zjawiska. Np. w przypadku hejtu – a hejterów jest statystycznie niebagatelnie więcej niż moderatorów, trzeba więc wzmacniać szeregi, dobra automatyzacja to istotna pomoc − jednym z istotnych wyróżników języka ofensywnego jest konkretna konstrukcja gramatyczna bezpośredniego zwrotu: zaimek „ty”’ + rzeczownik w wołaczu. Gdybyśmy zastosowali tradycyjne kroki wstępnego przetwarzania, rodem z tutoriala dla początkujących czy z chatuGPT, to zgubilibyśmy tę informację. Jeśli mielibyśmy nazwać siedem grzechów głównych AI, to z pewnością niereprezentatywny zbiór treningowy będzie na pierwszym miejscu. I nie dotyczy to tylko języka, lecz modeli w ogóle.
Wracając do kwestii językowych, wyobraźmy sobie, że chcemy stworzyć narzędzie do wykrywania szkodliwych treści. Zbieramy przykłady takich danych z wybranego portalu. Powiedzmy, że mamy dostęp do danych sprzed 3 lat, a więc bardzo dużo danych. Trenujemy model, wcześniej wyodrębniliśmy zbiór walidacyjny i testowy, sprawdzamy − wszystko działa, super. A potem testujemy na dzisiejszych wpisach czy artykułach i nagle okazuje się, że model wariuje, podkreśla nie to, co powinien, strzela niemal na ślepo. Co się stało? Ano 3 lata temu czas był szczególny, na świecie pandemia, na duszy sporo frustracji, głównie tematy z tą pandemią związane. I taki tradycyjny model, nawet z tych większych transformerowych, z atencją, np. typu BERT, nauczył się, że hejt był związany z konkretnymi tematami, a nie z konkretną stylistyką czy gramatyką wypowiedzi. To się nazywa overfitting, czyli tzw. przeuczenie. Mamy z nim do czynienia, gdy model na skróty uczy się powtarzających cech, które okazują się powtarzające tylko w danym małym zbiorze, ale nie są cechami uniwersalnymi. Od razu przypomina mi się egzamin na prawo jazdy, przed którym instruktorzy uczą, żeby na widok pachołka w oknie, w konkretnym miejscu, obracać kierownicą w określonym kierunku określoną ilość razy. No i pięknie −mamy setki tysięcy zdanych egzaminów. Ale gdzie poza egzaminem będziemy w stanie wykorzystać ten trick?
Skrzywienia w danych to temat rzeka. W skrócie chodzi o to, by nie dominować konkretnym typem danych zbioru uczącego, bo wtedy inne warianty okażą się zbyt marginalne, by zostać zauważone i wejść do procesu tworzenia mentalnych reprezentacji w modelu. Jeśli będziemy uczyć model rozpoznawania hejtu na danych z konkretnych portali społecznościowych, gdzie gramatyka czy ortografia są stosowane co najmniej kreatywnie, a słownictwo bardziej przypomina szyfr, to wówczas model może nie poradzić sobie z poprawną, dłuższą wypowiedzią, która będzie kogoś również obrażać, ale w bardziej wyrafinowany sposób. Problemem może być też płeć – jeśli wybierzemy dane, w których np. wyraźnie częściej obrażani są mężczyźni, to obraza pod adresem kobiety może zostać niezauważona.
Kolejnym problemem są metryki. Znów trzeba uważnie i odpowiedzialnie dobierać zarówno zestawy danych testowych, by właśnie wyłapać potencjalne przeuczenie lub inne skrzywienia, jak i metryki, za pomocą których mamy kontrolować model, np. raportować postępy w przypadku dotowanych projektów czy komunikować funkcjonalność produktu. Czy zależy nam na tym, by model był bardziej czuły, czyli częściej alertował, czy też żeby jak najmniej było fałszywie pozytywnych predykcji, bo będą np. oznaczały oskarżanie niewinnych osób. Każde zastosowanie sztucznej inteligencji należy dogłębnie przeanalizować.
Dziś na językach wszystkich jest Chat GPT. Czym jeszcze zaskoczą nas specjaliści odpowiedzialni za postęp w dziedzinie AI?
Inez Okulska − W słowie zaskoczą chyba zamyka się ta niewiadoma. Wstawmy popcorn, usiądźmy wygodnie i obserwujmy. Innowacje pojawiają się niemal każdego dnia, naprawdę jest i będzie co oglądać. Osobiście życzyłabym sobie więcej prospołecznych ulepszeń, takich spod znaku skróconych kolejek tam, gdzie są one krytyczne, lepiej zorganizowanej logistyki, dostępności dla wykluczonych. I wszędzie tam widzę szansę dla specjalistów od AI. Ale też legislatorów, bo ten postęp musi iść ramię w ramię z odpowiedzialnością.
Gdzie dziś spotyka się nauka z biznesem w drodze do rozwoju sztucznej inteligencji?
Inez Okulska − Jest coraz więcej wspólnych inicjatyw grantowych, na bazie których powstają konsorcja, wspólnie rozwiązujące konkretne problemy. Wówczas prace badawcze rozkładają się między zespoły R&D z podmiotów komercyjnych a badaczy z jednostek naukowych, często przedsiębiorstwa wnoszą też dane. Wbrew pozorom w wielu przypadkach to naukowcy posiadają lepsze zasoby obliczeniowe. W każdym razie to z założenia prawdziwa synergia, która ma rozwiązywać prawdziwe problemy. I wszystko byłoby super, gdyby nie pewne ale. Często bowiem sama forma dotacji wymaga solidnego dopracowania − od niebagatelnie szczegółowych, źle sformułowanych wniosków, po proces oceny, rozliczeń, możliwość − albo raczej trudność − dobierania wybranych partnerów ze względu na formy podwykonawstwa, prawo zamówień publicznych i inne chwasty na naszej łące innowacji. Ale wiele z tych projektów naprawdę rozkwita, więc nie traćmy optymizmu. A w międzyczasie, karmieni tym optymizmem, poszukajmy wspólnie miejsc, w których można tę współpracę udrożnić.
Rozmawiała Małgorzata Szerfer-Niechaj
Dodaj komentarz