Posłuchaj Pawła Sokołowskiego – CEO Contadu. Czy Google w niedalekiej przyszłości stanie się wyświetlarką treści? Jak obecnie korzystamy ze sztucznej inteligencji przy tworzeniu treści? Jak będzie wyglądało to za kilka i kilkanaście lat?

Aby używać odtwarzacza, niezbędne jest wyrażenie zgody na przechowywanie plików cookies powiązanych z usługami odtwarzaczy. Szczegóły: polityka prywatności.

Tak, zgadzam się.

Słuchaj Treściwego Podcastu na swojej ulubionej platformie

Transkrypcja podcastu

Marcin Cichocki: Cześć! Moi drodzy witam Was bardzo serdecznie w kolejnym Treściwym Wywiadzie, w Treściwym Podcaście. Dzisiaj moim gościem jest Paweł Sokołowski, CEO Contadu, narzędzia, które dość szybko rozwija się i rozpycha na rynku i które służy do planowania oraz tworzenia contentu przy wykorzystaniu metodologii Data Driven, sztucznej inteligencji, uczenia maszynowego i operowania semantyką. Cześć Paweł!

Paweł Sokołowski: Cześć Marcinie! Witam Was wszystkich bardzo serdecznie. Dziękuję Ci za zaproszenie i mam nadzieję, że będzie to ciekawy materiał, z którego wszyscy coś wyniesiemy. 

Marcin Cichocki: Tak, też mam nadzieję, że to będzie ciekawy materiał, bo będzie to coś świeżego, coś, o czym się w zasadzie jeszcze nie mówi. 

Generowanie treści przez sztuczną inteligencję – czy to spam?

Natomiast, zainspirował mnie do zaproszenia Ciebie artykuł, który pojawił się na antywebie (antyweb.pl), Kacpra Cembrowskiego, który napisał, że Google nie lubi się ze sztuczną inteligencją i treści generowane przez sztuczną inteligencję flaguje jako spam. I dzisiaj chciałbym sobie z Tobą na ten temat porozmawiać, co o tym sądzisz, co o tym myślisz, jak się do tego ustosunkowujesz? 

I zacznijmy może od takiego mojego pierwszego pytania, na rozgrzewkę: Jak według Ciebie, Paweł, wygląda rynek AI copywritingu i czy faktycznie zaczynamy korzystać z treści generowanych przez sztuczną inteligencję? I gdzie je tak na dobrą sprawę możemy spotkać? 

Paweł Sokołowski: Wiesz co, nie czytałem tego artykułu, do którego się odniosłeś, chyba go przeczytam, bo myślę, że tam może jakaś nadinterpretacja nastąpiła, ale zerknę do niego bardzo chętnie, bo ja raczej w tym całym naszym spotkaniu będę się odnosił do tego, że Google bardzo się lubi ze sztuczną inteligencją. W zasadzie powiedziałbym, że to jest związek, który będzie trwał i trwał, będzie coraz bardziej zacieśniany. 

I teraz przechodząc do tego pytania, jak wygląda ten rynek copywritingu wspomaganego czy też definiowanego przez uczenie maszynowe. Myślę, że tutaj trzeba by było powiedzieć o takich dwóch elementach. Pewnie jednym z tych elementów, żeby zaraz na wstępie odnieść się do tego sformułowania, że Google flaguje treści tworzone przez sztuczną inteligencję jako spam, trzeba by, sobie było, wyraźnie rozdzielić pewien sposób tego, w jaki treści wspomagane przez sztuczną inteligencję są tworzone. 

Pewnie moglibyśmy wydzielić treści, które są tworzone bez nadzoru, czyli są to treści, powiedzmy sobie, generowane przez automat i w żaden sposób nie modyfikowane, nienadzorowane przez załóżmy copywritera czy jakiegoś użytkownika i treści, które są w pewien sposób inspiracyjne dla copywritera

Myślę, że to są dwie zupełnie jakby różne ścieżki, którymi możemy podążyć. I pewnie w momencie, kiedy mówimy sobie tutaj o automatycznym generowaniu treści na dużą skalę, to zakładam, że w najbliższej przyszłości, w zależności od tego, jakiego modelu semantycznego do generacji tych treści będziemy używali, takie treści rzeczywiście mogą być flagowane przez Googla. 

Natomiast, jeśli chodzi, o kwestię użycia treści generowanych przez sztuczną inteligencję do powiedzmy sobie takiej fazy inspiracyjnej, czyli np. do tego, żeby sztuczna inteligencja podpowiedziała, jak powinna wyglądać struktura dokumentu, podpowiedziała, jakie najlepsze nagłówki powinny być w tym dokumencie albo jaki tytuł powinien nosić ten dokument, albo jak zrobić podsumowanie tego dokumentu, żeby umieścić odpowiednie description w naszych meta, to tutaj myślę, jak najbardziej sztuczna inteligencja się bardzo dobrze sprawdza i tutaj nie będzie ze strony Googla żadnych działań flagujących czy też w jakiś sposób ograniczających użycie tej sztucznej inteligencji, bo to jest troszeczkę tak jak z tym, z czym mieliśmy już do czynienia wcześniej, czyli nadużywanie narzędzi. 

Tak jak kiedyś był link building w seo i nadużywanie narzędzi do link buildingu też mogło być jakby dwutorowo, tak, czyli była ta metoda ilościowa i metoda jakościowa. I myślę, że tutaj możemy równie dobrze podejść do tego bardzo podobnie, czyli ta metoda ilościowa pewnie krótkoterminowo się sprawdzi, do momentu, w którym Google nie będzie miał odpowiednich algorytmów. Tej treści jest już tak dużo, że Google widzi problem. Tak, że z całą pewnością Google widzi problem i mówi o tym otwarcie, tak? 

Czyli to pewnie jest to, co jest w tym artykule, że takie treści niskiej jakości generowane przez sztuczną inteligencję rzeczywiście nie są traktowane jako coś, co powinno być w internecie, co dodaje jakości informacjom, tylko raczej pogarsza jakość informacji. 

Natomiast, z mojego punktu widzenia, z całą pewnością Google dojdzie do miejsca, w którym będzie bardzo łatwo mógł flagować takie treści, natomiast cały czas to są takie działania Gray Hat, Black Hat niż działania wspierające załóżmy osoby piszące za pomocą sztucznej inteligencji. No bo, w tej chwili mamy tak dobre modele semantyczne i te modele semantyczne się co chwilę zmieniają, co chwilę są lepsze, tak? 

To jest mniej więcej przyrost, że co roku mamy dwa razy lepszy model niż zeszłego roku. Teraz mamy modele T5, takie Extended T5, które są naprawdę rewelacyjne, no bo w zasadzie, one nie dość, że piszą bardzo dobrze teksty, to jeszcze rozumieją to, co piszą. Rozumieją w sensie takim, że rozumieją dość szeroko, jakby korelacje pomiędzy terminami, korelacje pomiędzy tym, co należy wygenerować i w zasadzie ten rozwój tych narzędzi i rozwój tych modeli semantycznych, no będzie tylko coraz szybszy. Każdy następny model będzie, tutaj zaokrąglę, strzelam, będzie dwa razy lepszy czy tam dziesięć razy lepszy od poprzedniego. 

Więc myślę, że tutaj z całą pewnością, jeśli chodzi tutaj o to, w jaki sposób używać sztucznej inteligencji, to jak będziecie używali tej sztucznej inteligencji jako inspiracji, jako czegoś, co wam pomaga zacząć odpowiednio akapit, to to jest dobra droga. Natomiast pewnie takie masowe generowanie treści, czy po prostu generowanie treści na zasadzie no, wygeneruje tam 1000 znaków i wyślę klientowi, niech się klient martwi, to pewnie nie jest ta droga, którą powinniście podążać. 

Marcin Cichocki: To trochę jak z prawem Moore’a, że co roku w zasadzie wykładniczo minimum dwukrotnie zwiększają się możliwości tej semantyki. Natomiast wspomniałeś, że nie czytałeś tego artykułu, to tak wyłuskam clue. 

John Miller, jeden z wielu adwokatów Google’a stwierdził, że treści generowane przez AI nie są zgodne z wytycznymi przeglądarki. No i co o tym myślisz? No bo z jednej strony, Google sam korzysta ze sztucznej inteligencji przy ocenie m.in. treści, a z drugiej uważa, że te treści generowane przy wykorzystaniu tych samych technik, z których korzysta Google, są niezgodne z ich wytycznymi. 

Paweł Sokołowski: Odpowiem na to w ten sposób. Nie jestem fanem pana Millera, nie jestem fanem pana Millera z dwóch powodów. 

Po pierwsze, ten pan jest adwokatem Google’a, on jest takim adwokatem, powiedziałbym strategicznym. Marketingowym, strategicznym, natomiast on z całą pewnością nie jest technikiem, on nie jest inżynierem, on nie wie, jak rzeczy działają i on się do tego przyznaje wprost. W momencie, gdy jest coś takiego jak spotkanie Google Webmaster i można zadawać online pytania i jest cała seria tych pytań, spotkań z panem Millerem online, więc możecie to sobie obejrzeć. I tam po prostu osoby, które łączą się na żywo, na meetsach z panem Millerem i zadają mu pytania i on na nie odpowiada. 

Pierwszy powód jest taki, że ja rozumiem, że on się wypowiada poprzez jakiś pryzmat spojrzenia co my mamy w wytycznych, czyli mniej więcej jakiegoś regulaminu, takich stosów Google i w tych stosach Google są zapewne zapisy, które mówią o tym, że spam generowany przez automaty, czy to są jakieś automaty semantyczne do przepisywania treści, czy agregacji treści, czy re agregacji jakichś treści już istniejących itd. – oczywiście, to łamie te wytyczne. 

Natomiast, między łamaniem wytycznych Googla, to trochę tak jest, jak między automatycznymi linkami i ręcznymi linkami – dopóki jakość jest wysoka jednych i drugich, to Google raczej nie będzie reagował. I tak samo tak się będzie działo, jeśli chodzi tutaj o teksty, więc to czy w zasadzie ten tekst będzie współredagowany przez sztuczną inteligencję i poprawiany, czy w jakiś sposób tam określany, usprawniany przez copywritera, to myślę, że tutaj nie będzie żadnych problemów. 

Czyli pierwsza kwestia, dlaczego do końca nie mam po drodze, o tak to nazwę, z wypowiedziami pana Millera, to jest to, że on nie jest inżynierem, a druga to jest to, że on dość często jakby mówi sprzeczne czy wyraża sprzeczne opinie, czy sprzeczne informacje niż inżynierowie Googla. 

Więc to, komu i w jaki sposób ja ufam i skąd biorę informacje, to raczej nie z PR-u Googlowego, między innymi wyrażanego przez pana Millera, a raczej z patentów, czy z wypowiedzi inżynierów Googla. Oni rzeczywiście pokazują albo piszą w patentach, albo mówią na konferencjach czy w jakiś spotkaniach takich bardziej technicznych, jak to rzeczywiście działa. Póki co, w tych wypowiedziach inżynierów Googla nie ma stanowiska, które by mówiło, że Google nie lubi AI, czy Google nie lubi treści generowanych przez AI itd. 

Google ma olbrzymie problemy w tej chwili, żeby określić swoją przyszłość związaną właśnie z semantyką, związaną z tym, w jaki sposób algorytmy w dłuższej perspektywie czasu będą odpowiadały na to, jak zmienia się rynek. Bo w tej chwili mamy rynek, który jakby to powiedzieć, rośnie nieproporcjonalnie, właśnie przez to, że mamy narzędzia służące do optymalizacji czy generowania tekstów, rośnie wprost nieproporcjonalnie do tego, jak mogą odpowiedzieć na to narzędzia typu Google. 

Dlatego, że narzędzia typu Google wcześniej odpowiadały na pewne informacje czy zestawy informacji, które pojawiały się w Google za pomocą dwóch elementów, czyli jeden element to było testowanie pewnych rzeczy, np. self my out, czyli to były jakieś tam intensywne testy, nazwijmy to multi wariant testing czy ID testing, gdzie oni dochodzili do wniosku, że ok, na 10 podanych dokumentów te 2 czy 3 to są najlepsze ze względu na to, jak użytkownicy nam wybierają dane dokumenty, w zależności oczywiście od języka, od urządzenia itd. 

No i drugą częścią tych eksperymentów, czyli drugą jakby fazą to są ręczni writerzy, czyli tj. całe grono tych osób, które się zajmują ze strony ludzkiej interpretacją tego, jak wyglądają wyniki w SERPACH. 

No i teraz, ze względu na to, że jakby wcześniej większość tekstów czy większość jakby stron internetowych itd. nawet jeśli to były mieszarki tekstów, bo w 2011 r., nie wiem, czy Państwo pamiętacie, czy nie, Google miał olbrzymie problemy z jakością treści i oni to rozwiązali właśnie algorytmicznie, czyli poprzez testy A/B, poprzez jakieś informacje behawioralne jak dobrze użytkownicy, jak często odwiedzają stronę, jak długo na niej zostają i rozwiązali te problemy. 

Natomiast teraz te sygnały behawioralne oczywiście w dobrze napisanych tekstach przy użyciu czy ze wspomaganiem AI, one będą dość podobne do tego, co napisze zwykły użytkownik, więc te testy A/B nie będą dawały jednoznacznych wyników. 

A jeśli chodzi o testy ludzkie, to tu jest jeszcze nawet ciekawiej, dlatego, że większość osób preferuje dobrze napisane teksty przez sztuczną inteligencję. Tzn. sztuczna inteligencja w związku z tym, że jest uczona na tzw. korpusach językowych, a korpus językowy to jest po prostu zestawienie bardzo dużej ilości danych, danych tekstowych, w tej chwili Google już się uczy na danych wideo, na obrazach itd., natomiast mamy coś takiego co jest nazywane korpusem językowym. 

Jednym z popularnych korpusów językowych jest Common Crawl. Google używa teraz takiego korpusu, który nazywa u siebie C4, czyli to jest taki wyczyszczony Common Crawl. Natomiast Common Crawl to jest około 350 tetra bajtów danych. To tutaj mamy taki rozmiar zebranych informacji. Taki rozmiar zebranych informacji jest przetwarzany do tego, żeby nauczyć model językowy, jak ma na przykład odpowiedzieć na dane pytanie. 

No i teraz, jak popatrzymy sobie na to, w jaki sposób taki model językowy, dobrze nauczony modelu danych jest w stanie odpowiedzieć na dane pytanie, to oczywiście on odpowie na to pytanie, bardzo, bardzo często lepiej niż człowiek. Tak? No bo każdy z nas w jakiś sposób wkłada swoją osobowość w odpowiedź na pytanie, więc raz taka odpowiedź będzie zbyt techniczna, a raz taka odpowiedź będzie zbyt ogólna, raz taka odpowiedź może być np. troszeczkę nie na temat. 

Natomiast w momencie, kiedy sztuczna inteligencja będzie na to odpowiadała, to będzie odpowiedź w punkt. To będzie odpowiedź w punkt, na tyle krótka, żeby nie rozwodzić się nad tym tematem, nie generować tak jak pan Morawiecki tutaj na odpowiedź ile chleb kosztuje, dziesięciu minut elaboratu o tym, że tak naprawdę nie wie, ile ten chleb kosztuje, do momentu, w którym odpowiedź to jest rzeczywiście kwintesencja tego zapytania. 

I tutaj, w momencie, kiedy tego typu odpowiedzi dotrą do tych writerów z białkiem, czyli tych białkowych writerów ludzkich, to oni będą mieli jeszcze większy problem, tak, bo to będzie problem typu czy lepiej ocenić treść, którą 90% tych writerów uznało za treść ok, super, czy lepiej ocenić treść, którą uznało 30% writerów, którzy są bardziej techniczni za treść ok. 

Myślę, że tutaj Google generalnie stoi przed bardzo, bardzo dużym wyzwaniem. Wszyscy stoimy przed tym wyzwaniem – w jaki sposób zrozumienie języka naturalnego i coś takiego jest jeszcze, co Google nazywa transferem wiedzy, i jak ten transfer wiedzy wpłynie na to, jak będziemy postrzegać ogólnie cały zakres informacji. 

Nie mówię tutaj tylko i wyłącznie o Google, bo Google powoli się zmienia w taką wyświetlarkę informacji, a nie wyszukiwarkę informacji. Oni do tego będą dążyli i to jest proces, który będzie zachodził ciągle, więc oni będą dążyli do tego, aby być wyświetlarką informacji, natomiast my tutaj mówimy o procesie, który będzie dużo szerszy i dużo bardziej będzie wpływał na nasze życie. Google w tej chwili dąży do tego, żeby wiedza, która jest w tej chwili w pewnego rodzaju silosach, była zunifikowana i była dostępna pomiędzy tymi silosami. Tutaj mówimy o tym, że te silosy, to są silosy np. językowe, ale to są też silosy związane z typem treści czy ze sposobem jej prezentacji. 

Więc to, do czego Google dąży i co było w pewien sposób zapowiedziane w zeszłym roku, to jest moim zdaniem planem bardzo długoterminowym. To jest w pewien sposób zunifikowanie całej wiedzy, która jest dostępna w tej chwili np. w postaci modeli językowych, w poszczególnych językach, mówimy w tej chwili o model np. Extended T5, który jest oczywiście super modelem, w zasadzie jest najlepszym modelem, jaki w tej chwili istnieje wydanym przez Google w otoczeniu open sourcowym, z którego można korzystać. 

Natomiast, długofalowo myślę, że powstaną modele, które będą łączyły w sobie też kwestie tego, że bazy wiedzy będą łączone też pomiędzy językami. Bo w tej chwili model T5 łączy bazy wiedzy między typami treści, czyli łączy wiedzę z obrazów, łączy wiedzę z wideo, łączy wiedzę z treści, natomiast w najbliższej przyszłości spodziewam się, że w przyszłym roku, może za dwa lata, zobaczymy, jak to będzie, bo między modelem semantycznym a wdrożeniem tego w Googla na pewno upłynie dość duży czas, natomiast myślę, że takie modele, które będą już multi językowe, pojawią się w przyszłym roku, może jeszcze na koniec tego i to zmieni bardzo, bardzo mocno to, w jaki sposób postrzegamy informacje ogólnie. 

Więc myślę, że jeśli chcecie tak jakby wiedzieć, jak będzie wyglądała przyszłość, jak bardzo pan John Miller się myli, czy też się nie myli, to polecam wam czytanie patentów i polecam wam oglądanie właśnie wywiadów z inżynierami Googla. Nie jest tego dużo, ale jest trochę i wiedza ta to jest bardzo techniczna wiedza i myślę, że jest to coś, co was bardzo wzbogaci, jeśli chcecie wiedzieć, jak semantyka będzie wpływała na przyszłość w ogóle naszej komunikacji, to naprawdę zmieni wszystko.

Teksty pisane przez AI – jak Google je identyfikuje?

Marcin Cichocki: Czyli wspomniałeś, że już na tym etapie Google nie jest w stanie w pełni poprawnie wykryć treści, które są tworzone przez sztuczną inteligencję, tak? Do tego zatrudnia osoby, które przeglądają i weryfikują te treści, bo algorytmy nie dają sobie z tym rady, a i te osoby nie są w stanie do końca już teraz wycelować, czy dana treść jest tworzona przez osobę z krwi i kości, czy przez algorytm. 

Paweł Sokołowski: Poczekaj, Marcin, ja to sprecyzuję. Bo Google używa tych tzw. writerów od zawsze – tzn. od piętnastu lat, to jest moja wiedza, gdzie firma Aspen zatrudnia writerów, mówimy tutaj o różnych rodzajach nadzoru nad sztuczną inteligencją i to są też Ads-y, to są też wyniki organiczne, to są wyniki wideo, to jest performance na mapach – mnóstwo różnych projektów, głównie prowadzi to Aspen i ci writerzy są zatrudnieni tak naprawdę po to, żeby sprawdzać jakość wyników w Google. 

Oni nie robią czegoś na zasadzie takiej, że markują jeden element, oni raczej markują wiele elementów, takich jak np. czy strona zawiera spam, czy strona zawiera treści dla dorosłych, czy uważa, że ten wynik jest dobry, jaka jakość jest treści, czy strona odpowiada właściwie na pytanie. 

I Google potem porównuje te dane, nie tylko na poziomie poszczególnej witryny, ale też na poziomie całych SERPÓW, tzn. tworzy potem wizualizację w pewien sposób tego, jak SERP, czyli tam załóżmy TOP 10 jakościowo odpowiada na pytanie, kontra inne TOP 10 wg. tych manualnych writerów. 

Więc to, do czego ja tutaj jakby się odniosłem, to to, że bardzo ciężko będzie tym manualnym writerom, którzy są częścią algorytmu nadzorującego pracę sztucznej inteligencji, znaczy algorytmu to źle się wyraziłem, oni są częścią procesu nadzorującego jakość danych tych wypluwanych przez sztuczną inteligencję czy przez algorytm wspomagany sztuczną inteligencją, oni to nadzorują. 

I im będzie bardzo ciężko, ich odpowiedzi będą bardzo ciężko weryfikowalne przez zespół Google, bo zespół Google nie będzie do końca wiedział, czy ich odpowiedzi są dobre dlatego, że sztuczna inteligencja dała im akceptowalną w 80% dla wszystkich odpowiedź, czy np. oni powinni bardziej bazować na jakimś doświadczeniu tych writerów itd. itd. 

Chodziło mi po prostu o to, że wyniki, które dostaną teraz i z testów A/B i z writerów, to będzie coś, co będzie wieloznaczne dla zespołu Google. Natomiast jeśli chodzi o wykrywanie sztucznej inteligencji, takiej po prostu piszącej samej z siebie, bez nadzoru człowieka, bez poprawiania tego przez człowieka, myślę, że to będzie bardzo łatwe do wykrycia przez Google. 

W zależności od tego, jak wiele będzie używanych modeli semantycznych na rynku, w tej chwili dominującym modelem są modele z firmy Open AI, tam mamy model Da Vinci 01 i Da Vinci 02 to są te najdroższe modele i te, których najczęściej się używa do pisania np. długiej treści blogów, są też open sourcowe modele oparte o transformersy, ale w sumie tego jest kilka. 

Czyli mówimy tu o kilku sztukach technologicznych, które dość łatwo sprecyzować. Dlatego, że mamy algorytm po jednej stronie i dość łatwo, tym bardziej że część tych algorytmów są algorytmami Google, dość łatwo jest zrozumieć, jakie typowe cechy posiadają te algorytmy. I nawet jeśli, może ja tu troszeczkę teraz chciałbym, żebyście dobrze to zrozumieli, ale one posiadają pewne cechy, które nawet można powiedzieć, że są takimi cechami, które można przypisać ludziom. 

Czyli jeden model np. może mieć szorstkie odpowiedzi, inny model może być trochę miękki, albo mniej precyzyjny itd. Wyobraźcie sobie taką sytuację, że wchodzi robot Googla na dany blog, zbiera tam 5, 10, 20, 50 tekstów z tego bloga, a potem jest jakiś fragment algorytmu Google, co do którego teraz istnienia nie jestem pewien, nie jestem pewien, że mają to u siebie w dewelopmencie, czyli że testują tego typu rzeczy, czy to jest teraz w produkcji, tego nie jestem pewien, więc wchodzi po tym warstwa, która będzie próbowała zdefiniować, na ile ten tekst może być potencjalnie napisany przez sztuczną inteligencję. 

No i tam będzie kilka elementów, kilka takich mikro testów, które ten tekst powinien przejść, żeby określić, jakie jest prawdopodobieństwo, że dany tekst został napisany przez sztuczną inteligencję. I myślę, że my cały czas mamy takie coś, że my trochę nie doceniamy tego Googla, nie doceniamy tego, co się tam dzieje w tym Googlu itd. ale tam jest kilkuset, słownie kilkuset inżynierów, którzy nic nie robią, tylko siedzą w algorytmie Googla. 

Mają 40 tys. dolarów na rok, każdy z nich, więc to są najlepsi ludzie, nieograniczony dostęp do maszyn, nieograniczony dostęp do budżetu. Tak to wygląda, bo tam nie ma limitu, że są jakieś tam zasoby itd. Oczywiście, za każdym razem muszą się zastanowić, czy np. przecrawlowanie połowy internetu, dlatego, żeby zebrać emotikony np., czy to ma sens, czy to nie ma sensu. 

Natomiast, oni naprawdę wiedzą, co robią. To są najlepsi ludzie na świecie i oni mogą to robić i robią to. Wszystko, co się dzieje, wszystko, co w zasadzie większość, powiedzmy sobie osób, kiedyś w to wątpiła, że to nastanie albo kiedy to nastanie, to to się dzieje, więc to trzeba naprawdę wziąć pod uwagę, że takie algorytmy na pewno będą wdrożone w Google, że będą w jakiś sposób oceniały na ile dany tekst jest powiedzmy sobie, na ile wpływ na dany tekst mogła mieć sztuczna inteligencja i pewnie oni od razu będą wiedzieli, że to np. było pisane za pomocą tego i tego algorytmu, w taki i taki sposób itd. 

Nawet będą mogli to w pewien sposób odwrócić, tak, czyli będą mogli wziąć paragraf i określić, jakie było słowo, czy jakie było pytanie, od którego ten paragraf się zaczął. W tej chwili bardzo dużo osób pisze, wspomagając się sztuczną inteligencją i te osoby, które piszą, wspomagając się sztuczną inteligencją, też na pewno zauważają pewne wzory, które są w odpowiedziach. 

Czyli np. jeśli jest jakiś zestaw danych, które ma sztuczna inteligencja i gdzie ona może rozwinąć tak w cudzysłowie skrzydła, to tam rzeczywiście tych wyborów jest kilkadziesiąt, czasami może nawet kilkaset. 

Natomiast gdzie informacji jest trochę mniej, to zaczynają pojawiać się takie wzorce i to są wzorce tak widoczne, po 10, 20 generacjach już widać te wzorce, gdzie ona po prostu wpada w pewnego rodzaju standardy, takie jak nie wiem, może zacytuję, to będzie trochę takie śmieszne, możecie sobie np. za pomocą sztucznej inteligencji generować przepisy na różne danie, na różne nieistniejące danie. 

Możecie sobie wymyślić dowolne danie, kompletnie dowolne, np. na placki księżycowe i sztuczna inteligencja zbierze informacje, które wie o tym, czym jest księżyc, czym są placki i informacje o tym, jak wygląda szkielet, którym jest przepis. I poda wam przepis w rodzaju na przykład, weź jedną uncję księżyca, weź mąkę, weź olej, weź wodę itd., czyli wszystko to, co składa się na przepis na placki, wymyśli coś, co się składa na przepis materiał księżycowy tak to nazwę i wygeneruje z tego przepis.

I to jest absolutnie, jakby ktoś nie wiedział, że to jest kompletnie wbrew logice, to przepis jako przepis, całkowicie jakby wpasuje się w ten format przepisu. Więc tego typu elementy są naprawdę łatwe do wyłapania i myślę, że Google będzie to wyłapywał. 

W tej chwili nie widzimy, żeby takie rzeczy Google wyłapywał, więc nawet te teksty takie bardzo, bardzo źle pisane przez sztuczną inteligencję mówimy tutaj o tekstach, bo oczywiście teksty pisane przez te modele takie jak Open AI, czyli załóżmy Da Vinci, one są dosyć kosztowne, czyli wygenerowanie całego serwisu z cyklu 30 tys. podstron to jest kilkaset dolców. 

Więc to, co się dzieje, to te osoby, które jakby generują treści sztuczną inteligencją i to jest trochę to, do czego ten John Miller się odnosi, no one używają innych narzędzi, takich, które nie mają tych limitów, które są albo tańsze, albo po prostu nie korzystają z tych najlepszych, z tych płatnych rozwiązań. 

I tam rzeczywiście też jakby są i wzorce tylko troszeczkę inne, ale tutaj ja nie mam wątpliwości, że tak jak Google sobie poradził z linkami, tak jak sobie poradził z treściami generowanymi jakimiś mieszarkami, tak sobie poradzi z treściami generowanymi przez sztuczną inteligencję, natomiast potrwa to zapewne trochę dłużej, bo będą musieli zebrać więcej sygnałów i sygnałów z samego algorytmu i sygnałów behawioralnych od ludzi. 

Tworzenie treści przez sztuczną inteligencję w Contadu

Marcin Cichocki: Bardzo ciekawe jest to, co mówisz i jak rozpościerasz przed nami przyszłość Google i generalne agregowanie i przetwarzanie informacji przez tę wyszukiwarkę, ale pomówmy o samym Contadu. 

Jak w contadu podeszliście do kwestii generowania treści przez sztuczną inteligencję? Jak to w ogóle działa? I czy faktycznie copywriterzy, czy inni użytkownicy content writera waszego narzędzia faktycznie z tego korzystają?

Paweł Sokołowski: Zacznę od tego drugiego pytania: czy korzystają? Tak, korzystają. I jak do tego podeszliśmy? U nas stworzenie treści przy użyciu sztucznej inteligencji jest dodatkiem, nie funkcją podstawową. 

Funkcją podstawową Contadu jest przekazanie informacji copywriterowi w jaki sposób dokument, który tworzy, powinien odpowiadać na intencje użytkownika, czyli jakiego typu powinien być to dokument, jakiego typu strukturę powinien zawierać, a potem jak powinien być wypełniony treścią, żeby uzyskać to jak najlepsze dopasowanie intencji i jakości tego dokumentu, czyli to są te główne cechy, na które Google zwraca uwagę. 

Natomiast to jest u nas jakby pisanie za pomocą sztucznej inteligencji, to jest dodatek, który w tej chwili generuje kilka paragrafów, załóżmy na zadane pytanie, więc jest to ilość wystarczająca do tego, aby wspomóc copywritera, natomiast nie mamy funkcjonalności, raczej nie będziemy mieli funkcjonalności, która będzie generowała artykuły, powiedzmy sobie od zera. Czyli takie coś, na zasadzie tu jest słowo kluczowe, proszę, napisz artykuł za mnie, dlatego, że w pewien sposób nie wierzymy w to, że długoterminowo byłaby to dobra opcja. 

My korzystamy z Open AI, czyli Open AI to jest firma, GTP3 to jest model językowy, a Da Vinci to jest wersja tego modelu językowego, z której my korzystamy. Korzystamy z wersji drugiej w tej chwili, czyli z tej najnowszej. 

No i powiedziałbym, że to jest typowe wykorzystanie tego modelu, czyli my tam mamy dwie podstawowe funkcje, czyli to jest funkcja rozpoczynania paragrafu, czyli możesz zadać sobie pytanie, czy napisać tam, zacząć zdanie i sztuczna inteligencja to zdanie za Ciebie dokończy, albo możesz sobie uzupełnić treść, to się nazywa extend i mamy tutaj taką możliwość, że po prostu uzupełniasz sobie treść, czyli piszesz jedno lub dwa zdania, a my w środek tej treści dopisujemy Ci resztę

Możliwe, że będziemy pracowali, nad czymś więcej, tzn. mamy takie zadania w backlogu, które dzięki obsłudze szablonu powinny ułatwić pisanie nietypowych treści. Natomiast widzimy też, że jest mnóstwo narzędzi, które robią to bardzo dobrze, robią to z całą pewnością na poziomie wystarczającym, które specjalizują się tylko i wyłącznie w pisaniu treści no i tutaj zastanawiamy się na ile i ile tych szablonów i na ile to jest istotne. 

Jeśli widzicie taką potrzebę, że potrzebujecie szablon, który pozwoli wam pisać np. wiersze albo pozwoli wam pisać przepisy kulinarne, albo pozwoli wam pisać opowiadania z kilkoma charakterami, które ze sobą rozmawiają i jest interakcja między nimi, to dajcie nam znać. Ja chętnie podejdę do tego tematu i zobaczymy, w jaki sposób możemy to umieścić w interfejsie. 

Dlatego, że sztuczna inteligencja, szczególnie te nowe modele, myślę tu o T5, załóżmy, one świetnie się sprawdzają w bardzo wielu zastosowaniach, więc taki model Extended T5, który można powiedzieć, że jest takim state of art – obsługuje w jednym modelu językowym bardzo wiele rzeczy. 

Do tej pory nie było, troszeczkę wejdę w historię tego, w jaki sposób się nauczanie maszynowe wcześniej dzieliło, raczej załóżmy, jeszcze dwa lata temu, modele były predefiniowane do wykonywania określonej czynności, czyli np.był model do sumaryzacji tekstu, czyli do podsumowań. 

Czyli mieliśmy jakiś duży artykuł, czyli załóżmy 4 strony tekstu – model zajmował się tym, że czytał ten tekst i wypluwał nam podsumowanie na 3 zdania, na 5 zdań. I to był model językowy, który zajmował się tylko tym. 

Był inny model językowy, który np. załóżmy, pisał zapytanie do bazy SQL. Czyli wyrażałeś życzenie w stronę tego modelu językowego, dawałeś mu polecenie, pobierz mi, proszę, z bazy kwiatków 10 najpopularniejszych kwiatków, no i dostawałeś polecenie w stylu select nazwa bazy itd. I to były zupełnie oddzielne modele językowe, które się specjalizowały w jakiejś określonej czynności. 

W tej chwili idziemy w stronę na prawdę czegoś takiego, takiej multi wariantowości, bo T5 było łączone na 107 różnych działaniach, czyli tu mogła być sumaryzacja, tu mogło być pisanie teksu, to pewnie było, bo w zasadzie oni chyba wzięli wszystko, co jest dostępne, to mogły być nagłówki, to mogły być tytuły, to mogło być pokazywanie wzorów matematycznych, czyli stwórz wzór matematyczny dla czegoś tam, tak? Czy np. kwestia jakiś tam białek. 

Czyli idziemy teraz w stronę tego, że wcześniej te bazy wiedzy były no oczywiście, cały czas na tym samym korpusie jakby się uczyły, bo uczyły się na korpusie C4 między T5 a Extended T5 to jest ten sam korpus językowy, na którym uczył się nasz model, natomiast ilość operacji, które ten model może wykonać już wzrosła dwukrotnie między T5 a extended T5. T5 robił 55 operacji z tego, co pamiętam, a ten Extenden T5 robi 107 różnych operacji. 

Czyli w zasadzie mając wdrożony jeden model językowy, możemy go zapytać o wszystko. Napisz mi wiersz, zrób mi sumaryzację tekstu, napisz mi polecenie do MySQL, nie wiem, zrób cokolwiek, co jest w tych 107 działaniach. 

Więc myślę, że tutaj ten rozwój tych narzędzi i tego, w jaki sposób Contadu też może się rozwijać, jest taki strasznie szeroki. Więc myślę, że jak dacie nam znać, w którą stronę chcielibyście, byśmy poszli z tym rozwojem, jak mają wyglądać te prompty, bo prompt to jest komenda, którą wydajemy do sztucznej inteligencji. 

Prompt może być bardzo zaawansowany, czyli np. napisz mi przepis na mmm, który zawiera mmm, tu mamy jakieś zmienne – to może być dość ciekawe dla nas, jeśli powiecie nam czego oczekujecie, jakiego typu teksty chcecie pisać. 

Póki co wydaje nam się, że do pisania takich treści blogowych, takich treści o średniej długości, czyli pisania paragraf po paragrafie, to co mamy w Contadu jest w zupełności wystarczające i myślę, że jest to bardzo porównywalne ze wszystkimi narzędziami, które są na rynku, które korzystają z podobnych rozwiązań, jak open AI. 

U nas nie ma jeszcze szablonów, które mogłyby ewentualnie usprawnić pewnego rodzaju typy pisania treści, tak jak np., napisz mi opis na FB do jakiejś reklamy. Bo są takie narzędzia, które mają, załóżmy, 100 bardzo różnych, bardzo różnie nazwanych szablonów i one wykonują bardzo specyficzne czynności. 

My raczej skupiamy się na tym, żeby podpowiedzieć copywriterowi, jak ma napisać dany paragraf i wydaje się, że tutaj to działanie jest dość dobre i wykorzystujemy też tłumaczenia, to znaczy sięgamy po treści najczęściej anglojęzyczne, bo tam jest najwięcej tego materiału i tłumaczymy te treści na polski. 

Użytkownik pyta po polsku, my tłumaczymy to pytanie na angielski, pytamy po angielsku model językowy, dostajemy odpowiedź po angielsku i tą odpowiedz po angielsku, tłumaczymy na polski i to w zasadzie jest z dwóch stron jakby dość dobre dlatego, że po pierwsze model językowy lepiej rozumie to pytanie, bo był w większości uczony na danych anglojęzycznych, a po drugie, jakość informacji, która jest uzyskiwana przez użytkownika, też jest lepsza dlatego, że w większości te modele mają dużo większą bazę wiedzy w języku angielskim niż w języku polskim. 

Oczywiście możemy pytać po polsku, natomiast jakość otrzymywanych zwrotek jest niższa. Więc robimy to w ten sposób, że używamy translatora, pytamy najlepszy model językowy w języku angielskim, a potem dostajecie zwrotkę, która jest tłumaczona na polski. Więc tam pewne drobne błędy mogą na pewno występować, natomiast jakość treści pod względem informacyjnym, myślę, że jest bardzo dobra.

Czy Google lubi teksty pisane przez sztuczną inteligencję?

Marcin Cichocki: Widzę tu fajny potencjał na tworzenie treści sprzedażowych, jakichś ofert handlowych, mailingów. To jest dość schematyczne i myślę, że tutaj na pewno taką niszę warto by było zagospodarować. Natomiast przytłaczająco dużo informacji podałeś i tak na dobrą sprawę nie wiem, do czego się odnieść, bo tyle tego jest i tyle tej wiedzy jest tak stricte technicznej. 

Chcąc podsumować wykorzystanie sztucznej inteligencji przy tworzeniu treści i tego, jak Google się na to zapatruje. Więc Google się to zapatruje pozytywnie i w zasadzie już teraz dość mocno pracuje nad tym, żeby ta sztuczna inteligencja miała coraz większy udział w tworzeniu i przetwarzaniu tej treści

O ile dobrze to zrozumiałem, jeśli nie to oczywiście mnie popraw i taki jest naturalny jakby kierunek rozwoju w niedalekiej przyszłości, że ta treść będzie coraz częściej coraz mocniej tworzona przez coraz lepsze algorytmy, które będą nam tworzyły tę treść, przetwarzały tę treść i pozwalały nam tę treść zrozumieć. 

Paweł Sokołowski: Tak, Marcin, więc tak, więc ja nie znam do końca stanowiska Google, jeśli chodzi o tworzenie treści, gdzie sztuczna inteligencja pomaga copywriterowi. Ja zakładam, że ta sztuczna inteligencja pomaga copywriterowi na tyle, żeby on mógł zacząć. 

To jest bardzo istotne, że Google będzie stawiało na jakość danego artykułu. Chyba w 2011 albo 2012 roku Google dodało do swojego algorytmu coś takiego, co się nazywa zgodność. 

Czyli, jakość mieli od zawsze, dodali zgodność i oni działali w ten sposób, po to, żeby zapewnić jakość dla danego dokumentu, czyli, jak dobrze on odpowiada na dane zapytanie i jak dobra jest jakość tej odpowiedzi. 

To są te dwa elementy, które są w zasadzie już, załóżmy w zaokrągleniu 10-15 lat w samym algorytmie Google i teraz, jeśli patrzymy w przyszłość, jeśli patrzymy na to, jak Google patrzy na generowanie tych danych przez nas, to oczywiście Google ma do czynienia z tzw. user generated content i to z czego składa się sztuczna inteligencja, czyli te common crawle, czyli te elementy, na których sztuczna inteligencja się uczy, to jest zbiór wiedzy internetowej, typu Wikipedia, jakieś książki itd. tam jest mnóstwo elementów, w zależności co tam wchodzi. 

Common crawl to jest głównie internet, ale tam są jeszcze całe biblioteki anglojęzyczne skanowane i brane pod uwagę przy tworzeniu i nauce modeli językowych więc to, jak my będziemy tworzyli te treści, bardzo istotne jest to, żeby one miały dobrą jakość. To znaczy Google będzie coraz lepiej w stanie zdiagnozować, czy nasz dokument ma jakość, szczególnie teraz Google pracuje nad czymś, co jest w języku inżynierów Google określane jako uniwersalny system, oni mówią, że to jest model, ale w mojej ocenie będzie to raczej system, uniwersalny system zbierania i oceniania treści. 

To jest przyszłość Google, gdzie informacje będą pozyskiwane z wielu nośników, czyli z wielu formatów, czyli mówimy tutaj o informacjach pozyskanych np. z obrazków, informacjach pozyskanych z wideo, mówimy tu i o przetwarzaniu obrazów wideo i o przetwarzaniu dźwięków wideo, więc oni będą mieli informacje o tym, jakie osoby występują wspólnie, jakie elementy się pojawiają wspólnie, jaki jest kontekst tego pojawienia się, więc mówimy tutaj o zupełnie, zupełnie nowym obszarze informacyjnym, bo ten kontekst występowania informacji na wideo jest zupełnie inny niż tych dokumentów tekstowych. 

No i tu to, co Google będzie robiło, to przede wszystkim będzie próbowało i to jest właśnie wyzwanie, nad którym inżynierowie Google pracują, będzie próbowało zrobić taką uspójnioną bazę wiedzy, która będzie nie dość, że zbierała informacje z różnych typów treści, to jeszcze będzie te informacje w pewien sposób unifikowała w 75 językach. Oni w tej chwili mówią o 75 językach. 

Na razie model ten Extended T5 czy w ogóle transformersy działają, czy są uczone na języku angielskim, tam są drobne elementy innych języków, ale to jest głównie język angielski, natomiast to do czego Google dąży to stworzenie bazy wiedzy gdzie, jeśli będziesz pytał o to, jak zrobić sushi to nie dostaniesz wyników, które się nauczyły jak robić sushi w Europie, tylko dostaniesz wyniki, które nauczyły się robić sushi w Japonii. 

Nie wiem, czy wiesz, ale wersja europejska sushi i japońska się dość mocno różnią, jeśli chodzi o to, w jaki sposób przygotowuje się to, co w Japonii jest nazywane sushi, a to, co jest nazywane sushi w Europie. 

Więc będziemy dostawali informacje, które będą syntezą najlepszej wiedzy. Oni będą w jakiś sposób oceniali, które dokumenty jakościowo, w którym języku odpowiadają najlepiej na to zapytanie i to jest coś, czego jeszcze te modele, te transformersy jeszcze tego nie robią, bo one nie mają tej wiedzy wielojęzykowej, tylko żyją w takich, powiedzmy sobie silosach, każdy ma swój język, natomiast one już potrafią tłumaczyć dokumenty. 

Czyli ten Extended T5 czy w ogóle T5 potrafi tłumaczyć dokument. Już w modelu językowym potrafi przetłumaczyć dokument i dać tam odpowiedź bez sięgania do zewnętrznych narzędzi może nam odpowiedź dać np. po polsku. Ty piszesz pytanie po angielsku, jak to będzie po polsku, piszesz zdanie, a on ci odpowiada, jak to będzie po polsku, czyli tłumaczy ci. 

Przyszłość copywritingu AI

Więc to są takie rzeczy, które z punktu widzenia Google doprowadzą go do tego, że Google będzie bardziej warstwą prezentacyjną wyników, niż samą wyszukiwarką, bo oczywiście jak sobie sięgniesz dalej, może tu za bardzo, ale znowu przesuwam perspektywę tego, o czym rozmawiamy, jak sobie sięgniesz dalej, czyli jak mógłby działać ten mechanizm, no to oczywiście, jeśli Google będzie podawał, ty pytasz po polsku, a Google odpowiada ci przepisem na sushi, który zebrał ze strony japońskiej, no to w żaden sposób Google na tą stronę japońską Cię nie przekieruje, tylko wyświetli Ci tę odpowiedź, prawda, bo rozmawiamy tutaj o tym, żeby podać Ci jak najlepszą informację, która w Twoim języku albo nie jest dostępna, albo zawiera słabą jakość, czyli jest nisko oceniana przez Google, więc dostaniesz w locie tłumaczoną odpowiedź z najlepszego źródła

I tutaj pojawia się właśnie to, o czym mówię, czyli to jest ten następny krok milowy, gdzie przechodzimy z Google jako wyszukiwarki do Google jako wyświetlarki. To tutaj oczywiście jestem dużo, dużo do przodu w stosunku do tego, o czym zaczęliśmy rozmawiać, czy o czym powinniśmy rozmawiać, natomiast to jest naturalny proces, w momencie, kiedy mówimy tutaj o tym, do czego Google dąży, czyli Google dąży do tzw. unifikacji wiedzy globalnej. 

To jest to, co jest zadaniem Google, czyli przetwarzanie informacji i podawanie tej informacji w taki sposób, żeby wszyscy dostawali jak najlepszej jakości informacje. I tutaj też pojawia się wyzwanie dla nas wszystkich, czyli w jaki sposób tworzyć informacje w tej chwili, na tyle, żeby one mogły być wykorzystywane w tych przyszłych zastosowaniach. 

Czyli tutaj najbliższe zastosowanie to jest voice search, gdzie będzie dużo pytań i te pytania będą, takie powiedzmy sobie, dość ogólne, jak przygotować np. artykuł do tego , żeby był podawany przez voice search, jak przygotować artykuł do tego, aby był podawany w jakiś featuresach czy wynikach promowanych w jakiś sposób przez Google i ogólnie jak przygotować artykuł, żeby odpowiadał jak najlepiej na dane pytanie. 

To tutaj się otwiera generalnie bardzo, bardzo ciekawy obszar semantyki, która będzie słychać chyba w moim głosie, że strasznie jestem ciekawy tego, jak to będzie wyglądało i w jaki sposób się to rozwinie i przyznam, że nie mogę się na to doczekać, żeby zobaczyć to w akcji, jak to wygląda, czy w Google, czy w innej wyszukiwarce. 

Jak wyglądają te mechanizmy, bo wydaje się, że będzie to przełom i to będzie przełom tak kluczowy, jak nie wiem, możemy to sobie porównać do tego, że wiecie, mamy dostęp w tej chwili internet to było takie otwarcie i dostęp do wiedzy z całego świata, ale my używamy tej wiedzy cały czas w jednym języku. 

Większość z użytkowników porusza się w tych swoich bąblach językowych, natomiast nagle się okaże, z te Twoje bąble językowe w ogóle nie istnieją i że dostajesz informacje, z cyklu, nie wiem, chce pojechać na wakacje do jakiegoś miejsca w Afryce i dostajesz informacje, które ktoś tam napisał w jakimś tam lokalnym języku, które mówią o tym, jak iść jakąś ścieżką w lesie i co tam jest. I dostajesz je w swoim języku i myślę, że to bezie absolutny przełom w momencie, kiedy będą połączone te informacje, będziemy mieli dostęp do tych informacji w zasadzie na żywo. 

Może to górnolotnie zabrzmi, ale to trochę tak będzie, jakbyś się nauczył wielu, czy wszystkich języku świata i mógłbyś szukać w każdym języku i otrzymywać odpowiedzi w każdym języku. Myślę, że to oczywiście to będą lata, to też się nie zdarzy jutro, czy tam za rok, to będą lata, ale z całą pewnością ta wiedza będzie w ten sposób wyglądała. 

Zresztą w patentach Googla, które są wydawane cały czas, 2001-2022, nawet ten Extended T5 tam możecie poczytać, że zawsze te ich patenty kończą się takimi wnioskami podsumowującymi i tam są też wyzwania. I w tych wyzwaniach właśnie jest to, żeby jakby doprowadzić do tego miejsca, w którym wiedza będzie dostępna bez ograniczenia językowego. 

No to są dwa kluczowe elementy potrzebne. Pierwszy element to jest taki, żeby były bazy wiedzy, na których te modele nowe językowe mogą się uczyć, a tego nie ma. To jest, myślę, największy problem, z którym zmagają się osoby związane z semantyką, że albo nie ma tych baz, na których można uczyć modele językowe, albo one są niskiej jakości, rozproszone. 

Nie ma jednego centralnego systemu, do którego Google może wejść i powiedzieć tu jest Common Crawl po angielsku, daj mi Common Crawl po polsku, daj mi Common Crawl w jakimś innym języku, który miałby podobną strukturę. Nawet jak popatrzymy sobie na Wikipedię, angielska Wikipedia i polska Wikipedia różnią się dramatycznie. 

To jest pierwsze wyzwanie, z którym Google musi sobie poradzić, czyli znaleźć dane, na których te modele językowe będą mogły się uczyć, no i potem jeszcze znaleźć elementy, które w pewien sposób łączą te modele językowe, czyli że mamy w językach jak spojrzymy sobie na semantykę, to semantyka oprócz tego, że zmieniając język, to zmieniamy też siebie. Jak mówimy w innym języku, to mówimy czasami zupełnie inaczej. Np. mniej emocjonalnie albo bardziej technicznie, w zależności od tego, jakiego języka używamy. 

Więc Google też musi znaleźć sposoby na to, jak połączyć dobrze te języki ze sobą, tak żeby one współgrały na tym poziomie intencji. Oczywiście te podstawowe intencje będzie dość łatwo złapać, natomiast na poziomie tych szczegółów bardzo dużo czasu będą musieli spędzić, na takie rzeczy, jak nie wiem, u nas jest kolor granatowy, w języku angielskim koloru granatowego nie ma, w języku rosyjskim są dwa kolory granatowe. 

Tego typu rzeczy to już jest wyzwanie, z którym Google będzie dość długo walczył, żeby zrozumieć to, w jaki sposób dobrze połączyć te intencje użytkownika. 

Trochę może przepraszam za ten offtop. To jest przyszłość, w ktorej będziemy żyli za lat, mam nadzieję 10, pewnie bardziej 15, a może bardzo optymalnie za 5, bo jak patrzymy sobie jak bardzo szybko rosną te modele językowe, to może za 5, ale z całą pewnością to nie jest najbliższa przyszłość, do której się powinniśmy przygotować, pisząc dzisiaj teksty czy generując dzisiaj teksty przez sztuczną inteligencję.

Marcin Cichocki: Bardzo futurystycznie to wszystko brzmi i bardzo ekscytująco, myślę, że bardzo ciekawa przyszłość rysuje się przed content marketingiem i generalnie contentem, marketingiem, czy całą komunikacją międzyludzką, bo brzmi tak faktycznie tak, jak określiłeś prawdziwa rewolucja. 

Paweł bardzo Ci dziękuję za to, że podzieliłeś się swoim bardzo szerokim horyzontem, bardzo szeroką perspektywą z nami, ze słuchaczami Treściwego Podcastu i cóż, mam nadzieję, że jeszcze uda się nam nie raz i nie dwa porozmawiać. 

Właśnie pomyślałem teraz pod koniec tego, jak mówiłeś, że dobrze by było jeszcze porozmawiać o fake newsach przy mówieniu o semantyce, o tym, jak wyglądają te wszystkie modele Google, natomiast może to już zostawimy sobie na kolejne spotkanie. No i cóż, bardzo Ci dziękuję. 

A ty drogi słuchaczu, droga słuchaczko, jeśli podobał Ci się ten odcinek, koniecznie daj znać w moich mediach społecznościowych, czy w mediach społecznościowych Pawła, co Cię najbardziej zaciekawiło i co Ci utkwiło w pamięci i słyszymy się już niebawem. Do usłyszenia. Cześć.

Paweł Sokołowski: Dziękuję Ci bardzo. Do usłyszenia. 

Takie krótkie wtrącenie jeszcze. Google odniósł się do tzw. miss informacji. Są specjalne działy w Google powołane do walki z fake newsami, czy z informacjami, które mają wysoki poziom szkodliwości i jakbyście chcieli, to też jest takie opracowanie, z którym można się zapoznać, w jaki sposób Google walczy z tą dezinformacją. 

Takie są papiery naukowe od nich wydane i jest jeden webinar, w którym oni dokładnie mówią, co robią i jak ten zespół działa. Więc, jakby ktoś był bardzo zainteresowany, to mogę Was do tego odesłać. 

Dziękuję Ci bardzo Marcinie, bardzo było miło podzielić się z Wami tą perspektywą, mam nadzieję, że ona się wam wszystkim podoba i że generalnie ta jakość informacji wzrośnie i będziemy wszyscy z tego powodu bardzo, bardzo zadowoleni. Pozdrawiam serdecznie, zapraszam do Contadu.

Marcin Cichocki: Do usłyszenia.

Paweł Sokołowski: Do usłyszenia.