ChatGPT to technologia na swój sposób przełomowa. Działa trochę jak tradycyjny czatbot, a trochę jak wyszukiwarka - sztuczną inteligencję zapytać można o dowolną kwestię, a ona, przeszukując niemal cały Internet, postara się znaleźć satysfakcjonującą odpowiedź. Choć może imponować tym, jak składnie i z jaką dbałością językową konstruuje kolejne zdania, to podawane przez nią informacje często okazują się błędne. Z jednej strony, mamy do czynienia z czymś absolutnie wyjątkowym i unikatowym, a z drugiej, skala wypisywanych przez ChatGPT głupot jest czasem aż niemożliwa.
ChatGPT twierdzi, że Wieża Cieszyńska stoi na Psim Polu i ma 212 metrów wysokości
Naszą rozmowę rozpoczęliśmy od czegoś pozornie prostego.
Pytanie podstawowe. Przetestować ono miało, czy ChatGPT poradzi sobie ze złożoną wypowiedzią. Sztuczna inteligencja bardzo sprawnie dała sobie radę z oddzieleniem dwóch zdań i odniosła się do obu. Dalej jednak nie było już tak kolorowo...
Wieża Cieszyńska mieści się w Cieszynie, a nie we Wrocławiu? Choć dla nas wydaje się to oczywiste ze względu na nazwę, to coś w algorytmie sztucznej inteligencji nie zaskoczyło w odpowiedni sposób. Po poddaniu błędnej informacji pod wątpliwość szybko otrzymaliśmy jednak prawidłową odpowiedź.
Jacek Sutryk to prezydent Gdańska, Gdyni i Chorzowa, a nie Wrocławia
Okazało się, że nasz rozmówca znacznie gorzej radzi sobie, gdy podtykamy mu odpowiedź pod nos. Szczególnie, gdy podpowiadamy niezgodnie z prawdą.
W podobny sposób udało nam się przekonać sztuczną inteligencję, że Jacek Sutryk to jednak prezydent Gdyni. Kontynuując rozmowę, przeszliśmy później do wątku chorzowskiego.
Gdy chcieliśmy wrócić na poprawne tory, podpowiadając, że Jacek Sutryk może być jednak prezydentem Wrocławia, wydarzyło się coś takiego:
Co tu się stało? Trudno powiedzieć, natomiast w pewien sposób imponujące jest to, że do każdej wiadomości ChatGPT próbuje znaleźć dodatkowe informacje, które pomogą pogłębić temat i rzucić trochę nowego światła na to, o co pytamy.
ChatGPT to melodia przyszłości. Mimo plecionych głupot, potrafi zachwycić
Problemem sztucznej inteligencji okazała się nieumiejętność zweryfikowania swoich informacji. Wielokrotnie łatwo było zasugerować coś pozornie głupiego, a ChatGPT przyjmował tę automatycznie tę wiadomość za pewnik. Zdarzało się również, że nasz rozmówca sam z siebie podawał błędną informację, co może mieć związek z faktem, że odpowiedzi na nasze pytania pojawiały się bardzo szybko. Tak ekspresowe przeczesanie przeogromnej bazy danych zajmuje dużo czasu, więc podejrzewać można, że twórcy sztucznej inteligencji w pierwszej kolejności zasugerowali jej pobieżne przejrzenie najlepszych wyników i wykonanie na ich postawie odpowiedzi.
Imponujące były również tworzone przez ChatGPT zdania. Poprawne językowo, z bardzo dobrze postawionymi przecinkami i składne mogłyby stanowić solidną podstawę do napisania pracy zaliczeniowej do choćby szkoły. Takie próby były już zresztą podejmowane przez internautów z całego świata i, co ciekawe, niektóre z nich kończyły się sukcesem. Przetestowana przez nas sztuczna inteligencja nie jest idealna, ma wręcz sporo problemów i niedociągnięć, ale w przyszłości może okazać się niezwykle cennym narzędziem, które ekspresowo wykonywać będzie za nas np. research.