Temat sztucznej inteligencji zawładnął branżą nowych technologii, a potem rozniósł się jak ogień daleko poza jej granice. Wszystko za sprawą ChatGPT, który swoją premierę miał pod koniec 2022 roku.
Wzrost popularności nowego produktu bazującego na sztucznej inteligencji był tak duży, że firma OpenAI musiała pozyskać inwestora strategicznego (Microsoft) który sfinansuje infrastrukturę pozwalającą obsłużyć gigantyczny ruch, jaki generowały rzesze zainteresowanych rozmową z AI ludzi. Tak zaczęła się rewolucja na miarę powstania Internetu, a może i znacznie większa!
Rewolucja? TAK!
Nasz świat zmieni się bardziej i szybciej niż ktokolwiek się tego spodziewa. Powstanie i rozpowszechnienie Internetu wymagało najpierw komputera, a potem sieci teleinformatycznej - te elementy rozwijały się latami. W Polsce zdarzenia te można przypisać na początek lat 90., ale faktycznie szerokie jego rozpowszechnienie to dopiero lata 2000. W przypadku AI proces popularyzacji został skrócony dziesięciokrotnie. Aby zacząć korzystać z rzeczonego GPT Chat wystarczy dostęp do sieci i komputer lub smartphone, a to w dzisiejszych czasach nie jest niczym nowym. Internet umożliwił nam globalny dostęp do informacji, a sztuczna inteligencja da nam dostęp do rzeszy asystentów, którzy wykonają pracę za nas i w dodatku zrobią to często znacznie lepiej i szybciej niż my sami!
Mówi się o poniższych skutkach dalszego rozwoju i wprowadzenia sztucznej inteligencji jako wsparcia do codziennej pracy:
- Przyspieszenie wykonywania prostych czynności, automatyzacja wielu powtarzalnych i niewymagających kreatywnego myślenia procesów w codziennej pracy biurowej.
- AI zamiast Google - będziemy wykorzystywać sztuczną inteligencję do poszukiwania informacji, wyszukiwarki internetowe będą coraz mniej popularne.
- Eliminacja wielu zawodów, takich jak:
- Graficy - prace, które do tej pory mogły tworzyć tylko osoby z zaawansowanymi umiejętnościami obsługi programów graficznych, mogą być tworzone w ułamku sekund za pomocą AI, za znacznie mniejsze pieniądze: https://www.midjourney.com/showcase/recent/
- Programiści juniorzy - obecnie junior programista tworzy głównie prosty kod, jak CRUD. Już teraz samo AI potrafi je wykonać, a https://github.com/features/copilot zdecydowanie przyśpiesza proste, codzienne czynności w kodzie, które poprzednio mogły być zlecane juniorom.
- Pracownicy biurowi - często proste prace w biurze wykonują szeregowi pracownicy, którzy przykładowo tworzą syntezy dokumentów przetargowych. Aktualnie https://www.chatpdf.com/ wyciągnie nam najważniejsze informacje z dokumentu i przygotuje jego syntezę.
- Przyśpieszenie rozwoju medycyny oraz nauki - dzięki wykorzystaniu AI w robotach chirurgicznych czy innych urządzeniach wykorzystywanych w medycynie możliwa jest mniejsza ilość błędów czynnika ludzkiego.
Dlaczego akurat teraz?
Algorytmy sztucznej inteligencji to tak naprawdę algorytmy uczenia maszynowego bazujące na sieciach neuronowych, które są podobne (jak sama nazwa wskazuje) do struktury mózgu. Warto wiedzieć, że wiedza na ten temat sięga jeszcze lat 60. ubiegłego wieku! Dalszy rozwój algorytmów nastąpił w latach 80. Dlaczego zatem ChatGTP powstał dopiero teraz? Odpowiedź jest bardzo prosta -
moc obliczeniowa komputerów. Aby powstała sieć neuronowa, czyli tak zwany model AI, konieczne jest przetworzenie olbrzymiej ilości danych. Cały proces nazywany jest treningiem. Na dzień dzisiejszy koszt wytrenowania modelu takiego jak GPT jest liczony w milionach dolarów, a jeszcze 10 lat temu był aż 30 razy większy.
Prawo Moore'a, sformułowane przez Gordona Moore'a w 1965 roku, mówi, że liczba tranzystorów na układzie scalonym podwaja się co 18-24 miesiące, co prowadzi do znacznego wzrostu mocy obliczeniowej przy jednoczesnym spadku kosztów. Chociaż prawo Moore'a nie odnosi się bezpośrednio do kosztów energii, istnieje związek między gęstością tranzystorów a efektywnością energetyczną. Czas jaki jest potrzebny na trening oraz ilość energii jaką potrzebują komputery do tego celu spada wraz z rozwojem mikroprocesorów.
Źródło: https://www.dobreprogramy.pl/50-lat-prawa-moore-a-ile-jeszcze-wykladniczego-postepu-przed-nami,6628252773144193a
Dlatego modele sprzed 10 lat były dość proste i realizowały tylko jedną konkretną czynność, na przykład rozpoznawały ludzi na zdjęciach. Oznacza to, że byliśmy w stanie wytrenować model taki jak Chat GPT nawet w latach 80., jednak zajęłoby to dużo więcej czasu i pochłonęło ogromne środki.
Obecnie doszliśmy do etapu w którym wyszkolenie modelu jest na tyle tanie, że coraz więcej firm zaczęło szkolić modele takie jak GPT. Dzisiaj modele szkoli się w olbrzymich centrach obliczeniowych. Za kolejne 10 lat model pokroju obecnego GPT będziemy mogli wyszkolić zapewne na naszej domowej stacji roboczej, a za 20 lat na smartwatchu, czy innym mobilnym urządzeniu, które będzie wtedy popularne.
Czym jest najbardziej popularny model od OpenAI?
W dużym uproszczeniu
ChatGPT (Generative Pre-trained Transformer) to model, który ma odgadnąć kolejne słowo do słowa jakie zostanie mu podane. Przykładowo jeżeli podamy mu “Ala” w języku polskim to oczekujemy, że dokończy je słowami “ma kota”. Szkoląc model musimy dostarczyć mu danych, na podstawie których tworzona jest sieć neuronowa. Sieć ta to sieć olbrzymiej ilości połączonych ze sobą neuronów, które matematycznie opisane są tensorami. Model, odpowiadając na nasze pytanie, wędruje po sieci coraz bardziej zawężając prawdopodobieństwo udzielenia prawidłowej odpowiedzi, aż dochodzi do momentu, w którym prawdopodobieństwo jest na tyle duże, że wybiera opcję, która według szkolenia jest prawidłowa. Jest to dość uproszczony mechanizm,na podstawie którego działa nasz mózg :)
Źródło: https://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa#/media/Plik:Neural_network.svg
OpenAI zasiliło swój model podczas szkolenia ogromną ilością danych, wrzucili w zasadzie cały internet i na jego bazie wyszkolili swój model. Przy tak ogromnej ilości danych stało się coś niesamowitego, coś co nie do końca jesteśmy w stanie zrozumieć z uwagi na sposób, w jaki tworzona jest sieć. Model zaczął rozwiązywać problemy nie tylko takie, w których został wyszkolony, ale także nowe, stosując zasady których nauczył się z dostarczonych danych. Przypadków i wiedzy było tak dużo że model zaczął “rozumować logicznie”. Przykładem może być zachowanie GPT 4. Opisałem mu dość trudne logiczne zadanie, którego nie miał prawa wcześniej przeczytać, zobaczcie jak poradził sobie starszy model (GPT3.5), który szkolony był na znacznie mniejszej ilości danych w porównaniu do najnowszego GPT4 (dostępny tylko dla abonentów). Polecam również sprawdzić samemu:
“Nad polskim jeziorem stoi drewniany dom. W tym domu na stole w kuchni stoi szklanka z wodą, a w wodzie pływa mały stateczek z plastiku pomalowany na niebiesko, z czerwonym kominem. Do stateczku podchodzi chłopiec, wyjmuje go i ogląda, po czym odkłada z powrotem. Następnego dnia przylatuje kruk i wyciąga stateczek ze szklanki, leci z nim nad jezioro, trzymając go w dziobie, stateczek wypada i wpada do jeziora. Po tygodniu chłopiec bawiąc się na plaży blisko domu znajduje stateczek na brzegu, cieszy się i idzie ze stateczkiem do swojego pokoju, gdzie wkłada go do szuflady. Po 2 latach od tego zdarzenia przychodzi ojciec chłopca i robi remont pokoju, w tym celu wynosi z pokoju chłopca wszystkie meble tak, że pokój zostaje pusty. Meble zamyka w szopie obok domu. Po roku od tego zdarzenia piorun uderza w szopie i wszystko co w niej jest a sama szopa się spala. i teraz pytanie. Gdzie jest statek po tym zdarzeniu?”
Zapytacie jak to jest możliwe? Odpowiedź jest prosta, tak samo jak jest to możliwe w naszym mózgu, co do zasady zasada działania jest podobna :)
Jeżeli model został zasilony rozwiązaniami miliona zagadek, a my zadamy mu nową, unikalną zagadkę to model dopasuje do niej wzorce jakich nauczył się podczas analizy danych, którymi go zasililiśmy. Mimo że nie ma tam naszej konkretnej zagadki, z dużą dozą prawdopodobieństwa jest jakaś zagadka podobna lub taka która zawiera podobne schematy. Na takiej podstawie model łącząc wiele różnych zagadnień jest w stanie rozwiązać nowy problem.
Oczywiście na tym etapie jeżeli zadamy mu pytanie, co do którego nie znajdzie dopasowania w żadnym aspekcie w posiadanych danych, model zapewne się podda albo zwróci losowe odpowiedzi - jednak podobnie będzie w przypadku człowieka. Jeżeli zadamy pytanie człowiekowi z dziedziny, o której nigdy nie słyszał i której się nie uczył zapewne także nie udzieli prawidłowej odpowiedzi. AI ma taką przewagę, że możemy go zasilić całą posiadaną przez ludzkość wiedzę, a przeciętny człowiek zwyczajnie nie podoła przetworzenia tak wielkiej liczbie informacji. :) AI będzie defacto bytem, który posiadać będzie całą ludzką wiedzę, a nie tylko jej wycinki jak my sami.
Jeżeli chodzi o ChatGPT to kluczowe jest to, że nie ma w nim sprzężenia zwrotnego - jest jakby zamrożonym mózgiem bez pamięci krótkotrwałej. Nie uczy się podczas rozmowy, zna jej kontekst tylko dlatego, że za każdym razem przesyłamy jej historię naszej rozmowy, ale samo GPT nie wpływa na swoją strukturę i nie jest w stanie się samo uczyć - a my już tak. Oczywiście to tylko kwestia decyzji, w której damy GPT możliwość posiadania pamięci i uczenia się samodzielnego, choć z dużą doza prawdopodobieństwa już to jest robione - w zamkniętych warunkach. Aktualnie, rozmowa z GPT to jak rozmowa z człowiekiem bez pamięci krótkotrwałej. Szkolenie odbywa się przez wydanie kolejnej iteracji i wydania kolejnej wersji.
Co dalej? Jak wygląda przyszłość AI i ChatGPT?
Poniżej znajdują się moje przewidywania na bazie wypowiedzi różnych ekspertów oraz własnej wiedzy w temacie. Pobawmy się w predykcję (i nie traktujmy tego w 100% poważnie). :)
- Przez najbliższe kilka lat będziemy mieli do czynienia z dynamicznym rozwojem różnego rodzaju aplikacji wykorzystujących coraz to nowsze modele oraz powstaniem kilku konkurencyjnych do GPT modeli.
- Coraz więcej ludzi zacznie korzystać z dobrodziejstw sztucznej inteligencji, zacznie się proces znikania kilku pierwszych najbardziej podatnych na niego zawodów.
- Sztuczna inteligencja zacznie sama się uczyć działając w sprzężeniu zwrotnym, ten proces zapewne już ma miejsce, ale pojawią się pierwsze modele publicznie dostępne. AI będzie także na stałe podłączona do sieci i będzie mogła szukać dla nas informacji online.
- Kolejne lata przyniosą zapewne powstanie pełnoprawnej sztucznej inteligencji, która znacząco przewyższa nasze możliwości. Nie będę tutaj przewidywał, kiedy to nastąpi, zostawię to ludziom, którzy faktycznie pracują nad rozwojem najlepszych modeli predykcyjnych na świecie :)
Autor: Adam Czajkowski
Z ponad dwudziestoletnim doświadczeniem w branży IT, jest ekspertem w tworzeniu użytkowych doświadczeń (UX) oraz doświadczonym deweloperem, specjalizującym się w architekturze aplikacji dedykowanych, w tym paneli webowych. Jego kariera jest świadectwem pasji do technologii i innowacji, łącząc umiejętności techniczne z wyczuciem estetyki, by tworzyć intuicyjne i efektywne rozwiązania. Dzięki bogatemu doświadczeniu jest w stanie skutecznie przekształcać złożone potrzeby biznesowe w przejrzyste, funkcjonalne aplikacje, co czyni go ekspertem w dziedzinie technologii i projektowania użytkowego.