Google co jakiś czas zmienia algorytmy decydujące o tym, co wyszukiwarka pokaże nam na górze. Ostatnia aktualizacja ma wymieść z czołówki clickbaity i inne nieprzydatne treści tworzone tylko po to, by wygenerować ruch.
Google co jakiś czas zmienia algorytmy decydujące o tym, co wyszukiwarka pokaże nam na górze. Ostatnia aktualizacja ma wymieść z czołówki clickbaity i inne nieprzydatne treści tworzone tylko po to, by wygenerować ruch.
Liczba witryn internetowych na świecie zbliża się do 2 mld. A ponieważ każda witryna stanowi zbiór wielu stron internetowych – pojedynczych dokumentów dostępnych w sieci pod unikalnym adresem URL – to Google, najpopularniejsza na świecie wyszukiwarka, ma ich do zindeksowania setki miliardów.
To jak indeks na końcu gigantycznej książki: jest w nim każde słowo pojawiające się w każdym dokumencie online. Kiedy szukamy czegoś w sieci, wszystkie strony z danym wyrazem zgłaszają się do odpowiedzi: „Ja! Ja! Wybierz mnie!”. Bo odwiedziny internauty to zysk. O tym, kto w tej kolejce będzie pierwszy, a kto ostatni, decyduje Google.
Jeśli zapytam wyszukiwarkę np. o „coś na ból głowy”, wyświetli mi linki do treści z różnych witryn, uszeregowane na kilkunastu stronach. Dlaczego najpierw pokazuje te, a nie inne? Kolejność ustala algorytm, czyli specjalne oprogramowanie firmy z kalifornijskiego Mountain View.
Algorytm działa według określonych zasad, które Google co pewien czas aktualizuje – a wtedy zmienia się kolejność stron w wynikach wyszukiwania. Zwycięzcy trafiają do czołówki rankingu, na pierwszą stronę, przegrani lądują dalej, gdzie zazwyczaj nikt nie zagląda. Dla serwisów internetowych pozycja w tym rankingu to być albo nie być – gros ruchu pochodzi właśnie z bezpłatnych wyników wyszukiwania (organic search).
Niektóre zmiany algorytmu są jak trzęsienie ziemi.
W najbliższych dniach okaże się, które witryny ucierpiały na zmianach, jakie właściciel największej na świecie wyszukiwarki wprowadził w swoim mechanizmie porządkującym wyniki. Wdrażanie modyfikacji zaczęło się w czwartek 25 sierpnia i ma potrwać do dwóch tygodni. „Miejcie oko na poziom widoczności swoich stron w wynikach Google’a” – ostrzega Barry Schwartz z serwisu Search Engine Land. Nagły spadek pozycji danego portalu w rankingu wyników wyszukiwania w ciągu najbliższych dni będzie najprawdopodobniej skutkiem aktualizacji algorytmu.
Zapowiadając deweloperom stron internetowych zmianę zasad, Chris Nelson, który w Google’u zajmuje się jakością wyszukiwania, poinformował, że firma stara się „poprawić dostęp użytkowników do przydatnych informacji”. Dlatego wprowadza aktualizację pod nazwą „Pomocne Treści” („Helpful Content”), dzięki której internauci w wynikach wyszukiwania dostaną linki do użyteczniejszych i bardziej oryginalnych materiałów „napisanych przez ludzi dla ludzi”. Jak zaznaczył, systemy Google’a automatycznie zidentyfikują treści o niewielkiej wartości, niskiej wartości dodanej (czyli skopiowane z innego serwisu) lub w inny sposób „niezbyt przydatne” dla osób wyszukujących dane hasło.
Na razie poszkodowanych jest niewielu. Na branżowych forach Barry Schwartz wypatrzył kilka wpisów osób, których witryny wypadły z czołówki. „Moje treści są w niszy, o której jako pierwszy zacząłem pisać” – poskarżył się jeden z internautów. Jego serwis od lat był na górze rankingu, a teraz połowa słów kluczowych z jego stron ląduje „na drugiej stronie, w samym środku nietrafnych wyników wyszukiwania”.
Pod analizą Barry’ego Schwartza internauta o pseudonimie john758 skomentował, że od kilku dni widzi spadek ruchu, ale jak dotąd straty są minimalne. „Oczywiście moja witryna, podobnie jak wiele innych, nie pasuje do modelu «przydatnej strony» według Google’a” – stwierdził, dodając, że obecna aktualizacja ma wszystkie zadatki, by na długo zostać w pamięci. „Potencjał destrukcyjny jest ogromny. Zobaczmy, czy go wykorzystają” – podsumował.
Zmiany w algorytmie Google’a wywołują zwykle rewolucję lub przynajmniej przetasowania w rankingu wyników wyszukiwania. Widzieliśmy to po aktualizacji, którą koncern z Mountain View przeprowadził 25 maja – obejmowała ona także treści w języku polskim. Internetowy gigant był wtedy jeszcze bardziej enigmatyczny niż teraz. Z jego wskazówek dla twórców witryn wynikało, że modyfikacja algorytmu dotyczy samej treści sieciowych publikacji. Google radził im zrobić rachunek sumienia. Czy materiały publikowane w twoim serwisie zawierają oryginalne informacje, raporty, badania lub analizy? Czy są wnikliwe i interesujące? Czy podchodzą do tematu merytorycznie i przedstawiają go wyczerpująco? Zwracał też uwagę deweloperów na sposób prezentacji materiału. Czyli m.in. błędy ortograficzne lub stylistyczne, wyolbrzymione lub szokujące tytuły i nagłówki, łatwe do zweryfikowania błędy rzeczowe oraz inne niechlujstwa wskazujące na to, że publikacja została „pospiesznie wyprodukowana”. Na niekorzyść danej witryny mogła też działać nadmierna liczba reklam odwracających uwagę lub zakłócających odbiór treści oraz złe wyświetlanie się stron na urządzeniach mobilnych. „Czy treść przedstawia informacje w sposób, który sprawia, że chcesz jej zaufać?” – pytał Google, sugerując, że odpowiedź twierdząca zapewni wysokie miejsce w wynikach wyszukiwania.
Specjaliści od SEO – osiągania jak najlepszej pozycji w wynikach wyszukiwania (search engine optimization) – szybko się domyślili, że na celowniku nowego algorytmu znalazły się przede wszystkim strony dotyczące medycyny. Mechanizm zaczął je bezlitośnie przesiewać, bo w tej dziedzinie pojawiało się wiele fałszywych wiadomości, treści bezużytecznych lub wręcz szkodliwych. Zmiana została więc w branży ochrzczona mianem medycznej (medical).
Jej skutki uwidoczniły się bardzo szybko, bo już pod koniec maja. W Polsce spektakularny zjazd zaliczyła jedna z witryn o tematyce zdrowotnej. Przed aktualizacją algorytmu wiele jej stron trafiało do pierwszej dziesiątki wyników wyszukiwania (top 10). Zaraz po zmianie do czołówki łapało się ich o połowę mniej. W kolejnych tygodniach serwis notował dalsze spadki w rankingu Google’a, choć już nie tak duże. Jeden z małych portali informacyjnych po modyfikacji miał około trzech czwartych mniej trafień do pierwszej dziesiątki. Z kolei witryna publikująca dużo materiałów przygotowanych przez sztuczną inteligencję (AI) na bazie treści z innych serwisów straciła blisko 40 proc. miejsc w top 10.
Jeszcze silniejszy wpływ zmiany te miały w anglojęzycznym internecie. Jak wskazywał serwis Search Engine Land (na podstawie danych firmy Rank Ranger), w wynikach wyszukiwania z dziedziny zdrowia, podróży, finansów i handlu detalicznego zestaw witryn w top 10 zmienił się prawie zupełnie – tzn. od 97 proc. do 99 proc.
Danny Sullivan, który odpowiada w Google’u za wyjaśnianie użytkownikom działania wyszukiwarki, tłumaczy na firmowym blogu, że po pełnym wdrożeniu aktualizacji „nieoryginalne treści o niskiej jakości” przestaną się pojawiać w czołówce. Chodzi o materiały, które „wydają się stworzone głównie w celu uzyskania dobrej pozycji w wyszukiwarce”, a nie w celu informowania ludzi. Jak podkreślił Sullivan, testy wykazały, że aktualizacja w szczególności poprawi wyniki dotyczące edukacji online, a także sztuki i rozrywki, zakupów i technologii. „Wielu z nas doświadczyło frustracji związanej z odwiedzeniem strony internetowej, która na pozór wydaje się mieć to, czego szukamy, a jednak nie spełnia naszych oczekiwań” – przyznaje reprezentant Google’a. „Jeśli na przykład szukasz informacji o nowym filmie, to wcześniej być może trafiałeś na artykuły, które agregują recenzje z innych witryn” – ale same nie wnoszą nic oryginalnego – dodaje. To ma się zmienić. Na razie tylko w anglojęzycznych wynikach wyszukiwania, bo jedynie ich dotyczy najnowsza zmiana algorytmu. „Dzięki tej aktualizacji zobaczysz więcej wyników z unikalnymi, autentycznymi informacjami, więc z większym prawdopodobieństwem przeczytasz coś, czego wcześniej nie widziałeś” – obiecuje Sullivan.
Na czym konkretnie polegają zmiany? Jak zwykle w przypadku algorytmów Google’a nie jest to do końca jasne. Informując o kolejnych aktualizacjach, firma używa ogólników. Specjaliści od SEO snują domysły, analizując działanie wyszukiwarki po wdrożeniu modyfikacji: jakie serwisy zyskują, a jakie tracą. – Google, wprowadzając cykliczne zmiany w swoim algorytmie, od dawna nie skupia się na jakichś konkretnych czynnikach czy cechach stron www – zastrzega Szymon Słowik, specjalista SEO. – To nie tak, że inżynierowie w Mountain View dokonują modyfikacji manualnie. Google stopniowo zmienia krajobraz wyników wyszukiwania poprzez coraz bardziej restrykcyjne podejście do indeksowania zasobów, coraz lepsze zrozumienie ludzkiego języka oraz efektywniejsze badanie intencji użytkowników. Algorytmy Google’a, bazując na tzw. uczeniu maszynowym, starają się coraz lepiej zrozumieć, jakie wyniki dają satysfakcję użytkownikom i kalibrują się pod tym kątem – wyjaśnia Szymon Słowik. – Należy także pamiętać, że jednym z ważniejszych elementów, na których bazuje algorytm Google’a, wciąż są linki prowadzące do określonych zasobów i stanowiące coś w rodzaju głosów na nie. Jeśli wybrane treści są rekomendowane poprzez linki z innych serwisów, stają się dla Google’a bardziej wiarygodne. Jako specjaliści SEO ciągle obserwujemy zmiany również na tym polu – w postaci coraz bardziej restrykcyjnego podejścia do jakości linków – dodaje.
W przypadku najnowszej aktualizacji algorytmu kluczową kwestią jest to, jakie treści internetowy gigant uzna za pomocne. Danny Goodwin, redaktor zarządzający Search Engine Land, wyjaśnia, że chodzi o publikacje tworzone dla konkretnej grupy odbiorców, materiały pełne fachowej wiedzy, wiarygodne i godne zaufania – oraz zaspokajające potrzeby wyszukujących. Chris Dreyer, założyciel i szef agencji SEO Rankings.io, uważa, że za obecną aktualizacją kryje się chęć oczyszczenia sieci. „Google twierdzi, że w swoim indeksie wyszukiwania ma setki miliardów stron internetowych, które wymagają ponad 100 mln GB pamięci” – podkreśla Dreyer w serwisie Fast Company.
Zniechęcając twórców stron do publikowania niewnoszących nic nowego ani wartościowego materiałów, Google ułatwi sobie indeksowanie. „Wiele organizacji będzie musiało zmienić swoje nawyki tworzenia treści, by dostosować się do nowych standardów” – przewiduje Dreyer. Jego zdaniem serwisy, które chcą się wyróżnić, będą musiały postawić na treści o wyższej jakości. Spodziewa się też, że wiele portali uważnie prześwietli wcześniejsze publikacje i usunie te, które nie współgrają z nowymi standardami Google’a.
Niektórzy nie zdążą podnieść poprzeczki.
Co robić, jeśli po aktualizacji algorytmu strona nie łapie się już do czołówki wyników wyszukiwania w swojej kategorii? „Przeczytaj porady Google’a, wprowadź niezbędne zmiany i miej nadzieję na odbudowanie pozycji w nadchodzących miesiącach” – proponuje Barry Schwartz. Internetowy gigant zaleca przede wszystkim tworzenie dla ludzi, a nie dla wyszukiwarek. „Pozycjonowanie (SEO) jest pomocne, gdy stosuje się je do treści zorientowanych na ludzi” – wyjaśnia Chris Nelson z Google’a. Jednak treści tworzone głównie dla ruchu w wyszukiwarkach nie satysfakcjonują użytkowników.
Co zatem robić, a czego unikać? Nie należy np. produkować materiałów na wszystkie możliwe tematy w nadziei, że część z nich załapie się do czołówki wyników wyszukiwania. Nie należy się też pakować w dziedziny, w których nie posiada się rzetelnej wiedzy – licząc, że skoro są akurat na topie, to wygenerują nam ruch na stronie. Ponadto źle widziane przez algorytm jest łudzenie internautów fałszywymi obietnicami (clickbaity), że publikacja odpowie na pytanie, na które w rzeczywistości nie ma odpowiedzi, albo że opisuje fakty, choć opiera się na domysłach. Pozycję w rankingu można też stracić m.in. za nagminne używanie do tworzenia treści sztucznej inteligencji i za publikacje, które są podsumowaniem tego, co na dany temat napisali inni – bez wkładu własnego.
W skrócie: kto chce korzystać z ruchu przychodzącego przez linki w największej wyszukiwarce świata, powinien być ekspertem w ludzkiej skórze.
Specjaliści od SEO ostrzegają jednak, że poprzeczka zawieszona jest wysoko. Niełatwo jest uchodzić w sieci za fachowca. A ściślej: zostać nim w wyszukiwarce. Tylko skąd algorytm wie, że się na czymś znam albo nie? – Aby mówić o eksperckości w sieci oczami Google’a, trzeba zdać sobie sprawę z kilku wyzwań, przed którymi stoi obecnie wyszukiwarka – zaznacza Robert Niechciał, ekspert SEO i partner w agencji Vestigio. Jego zdaniem w tym roku największym jest odróżnienie, czy treść została napisana przez człowieka, czy przez maszynę. – Modele językowe i sztuczna inteligencja rozwijają się w tempie wykładniczym. Te najnowsze i największe generują już 4,5 mld słów dziennie w każdym języku – stwierdza Robert Niechciał. – Jakość tych treści jest już tak wysoka, że ciężko odróżnić ją od tych produkowanych przez człowieka, który zdał maturę. Mam tutaj na myśli gramatykę, ortografię, interpunkcję, styl. Działa to praktycznie w każdym języku – dodaje.
Żeby sprostać temu wyzwaniu, Google prowadzi kilka procesów. – Jest to szczególnie widoczne w obszarach delikatnych z perspektywy człowieka: zdrowie, finanse, życie. Google tego typu treści określa jako „Your life your money” (YLYM) i kładzie szczególny nacisk na, nazwijmy to, ich jakość i autorytet osób, które je tworzą, lub przynajmniej serwisu, w którym są publikowanie. W Polsce jest to szczególnie widoczne na stronach aptek internetowych – wskazuje ekspert SEO. Dlatego takie serwisy starają się pod każdą publikacją przynajmniej podpisać farmaceutę.
Kolejnym procesem, za pomocą którego wyszukiwarka podnosi poprzeczkę dla internetowych publikacji, jest premiowanie EAT, czyli fachowości, autorytatywności, wiarygodności (expertise, authoritativeness, trustworthiness). – Jest to wyzwanie, przed którym stoją osoby planujące kontent, strategię widoczności serwisów w Google’u itd. Użytkownicy mogą nie mieć pojęcia o tego typu wymaganiach, które stawia przed biznesem Google – zauważa Robert Niechciał.
EAT nie jest czynnikiem, który bezpośrednio decyduje o pozycji strony w rankingu wyszukiwania, ale wpływa pośrednio na to, jak jest oceniana przez algorytm Google’a. – Dopiero mając taki zarys sytuacji, możemy mówić o eksperckości, a raczej o sposobie promowania autorów treści eksperckich – kontynuuje specjalista SEO. W tym obszarze Google również wprowadził szereg mechanizmów, np. ranking autorów (Google Author Rank). – Jest to patent pozwalający wyszukiwarce określić autora dokumentu i jego reputację w sieci – wyjaśnia Robert Niechciał. Co więcej, Google Author Rank jest również w stanie powiązać autora danego materiału z jego innymi publikacjami, jego sposobem wypowiedzi, charakterystyką pisowni itp. – co na dłuższą metę wyklucza możliwość tworzenia treści za kogoś (ghostwritingu).
– Tej klasy algorytmy potrafią też odróżnić autora po jego głosie i sposobie wypowiedzi np. na YouTubie. Całość procesu przetwarzania przez wyszukiwarkę prowadzi do stworzenia tzw. wektora autora (Author Vector), w którym jest cała wiedza o danej osobie – dodaje ekspert. Zastrzega jednak, że te mechanizmy działają z różną precyzją i przed Google’em jeszcze sporo problemów do rozwiązania, zanim to zadziała perfekcyjnie. – Czy autorowi publikacji internetowej coraz trudniej jest zostać uznanym za eksperta? Nie. Czy jest to pracochłonne i faktycznie trzeba być ekspertem? Zdecydowanie tak. Wymaga to też ogromu działań – podsumowuje Robert Niechciał.
Teksty pisane przez sztuczną inteligencję to nic nowego. – Relacje wydarzeń sportowych w „The New York Times” wspomagane są przez AI od dobrych kilku lat – zaznacza Damian Sałkowski, szef Senuto, platformy analitycznej i firmy doradczej SEO.
Jak wyszukiwarka rozpoznaje, że autorem danego materiału jest sztuczna inteligencja? – Google może wytrenować swój model językowy do rozpoznawania tekstów wytworzonych przez inny model – wyjaśnia Sałkowski. – Obecnie najpopularniejszym modelem sztucznej inteligencji do tworzenia tekstów jest GPT-3. Google posiada modele o dużo większych możliwościach, np. T5. T5 mógłby spełniać zadanie takiego weryfikatora – stwierdza. Dodaje, że z obserwacji wyników wyszukiwania płynie wniosek, że na razie Google takich procesów nie realizuje. – Ale w przyszłości, kiedy teksty AI staną się powszechne, może zacząć to robić – uważa Sałkowski. Jak podkreśla, popularne serwisy wspomagają się twórczością pisaną przez sztuczną inteligencję, ale takie treści nadal są weryfikowane i poprawiane przez redaktorów. – Google traktuje materiały AI na równi z tymi napisanymi przez człowieka – zaznacza ekspert. Zgodnie z wytycznymi firmy z Mountain View dla webmasterów treści wygenerowane automatycznie za pomocą narzędzi opartych na sztucznej inteligencji to spam. – Nic z tego na razie jednak nie wynika – zaznacza szef Senuto. Przewiduje, że z czasem wyszukiwarka będzie obniżała pozycję w rankingu serwisom, które nagminnie wykorzystują materiały tworzone przez sztuczną inteligencję. Ale serwisy, które tylko wspomagają się AI, będą raczej bezpieczne.
Jakie będą kolejne kroki giganta? Google zapowiada, że aktualizacja „Pomocne Treści” zostanie rozszerzona z angielskiego na inne języki. Kiedy – nie wiadomo. „W nadchodzących miesiącach będziemy również udoskonalać sposób, w jaki klasyfikator (automat oceniający publikacje – red.) wykrywa nieprzydatne materiały, i podejmiemy dalsze wysiłki na rzecz lepszego nagradzania treści przeznaczonych przede wszystkim dla ludzi” – deklaruje Chris Nelson. ©℗
Współpraca Adam Bielski
Reklama
Reklama