AMA: SEO dla wydawców i dziennikarzy

Share on facebook
Share on twitter
Share on linkedin
Share on facebook
Share on twitter
Share on linkedin

SEO dla dziennikarzy

SEO dla wydawców i dziennikarzy to temat o tyle ważny dla branży, że to Google w ogromnej mierze nadaje jej kierunek. Na dobre i na złe. Redakcje internetowe mogą obrażać się na algorytmy wyszukiwarki, mogą nie akceptować kompromisów, do jakich niejednokrotnie zmusza ich walka o wysokie pozycje w Google - tym niemniej dziś online'owe medium bez odpowiednich działań SEO po prostu nie przetrwa.

Jak dostosować się do zasad Google, jednocześnie nie poświęcając pewnej dziennikarskiej poetyki? Jak przebić się do Google News? Jak zagraniczne serwisy to robią, że ich materiały czyta się tak dobrze, a jednocześnie doskonale się pozycjonują?

Na te i inne tematy rozmawiali eksperci i praktycy SEO, również z doświadczeniem w pracy z redakcjami: Grzegorz Strzelec, Łukasz Rogala i Robert Niechciał. Spotkanie online poprowadziła Karolina Matyska z Senuto.

Poniżej znajduje się nagranie webinaru, a także wygodna wersja tekstowa.

W jaki sposób jednocześnie dbać o SEO i o językową jakość tekstów, czyli o pewną ich poetykę?

Jedno z drugim wydaje się wzajemnie wykluczać i często jest to właśnie pole do kłótni, może dyskusji między SEO-wcami a dziennikarzami.

[Grzegorz Strzelec] Dobry warsztat dziennikarski wcale się nie wyklucza z optymalizacją pod SEO. SEO jest w stanie wspierać właściwy warsztat dziennikarski i rozumiem, że SEO w dobie papieru nie miałoby żadnej racji bytu. Tam artykuły tworzyło się zupełnie inaczej, a w onlinie pisze się w zupełnie inny sposób i SEO rzeczywiście może to wesprzeć. Wrażenie, że teksty online'owe, dziennikarskie są często zbyt SEO-we, wynika z tego, że media często bez potrzeby przeoptymalizowują materiały.

Czasem może to wynikać ze zbyt restrykcyjnych wymagań ze strony działów SEO czy pojedynczych SEO-wców. Czasem to może wynikać z tego, że dziennikarze zbyt mocno biorą sobie do serca te wszystkie zasady. Ale fakt faktem, że rzeczywiście czasami widzimy przeoptymalizowanie tych materiałów, zupełnie niepotrzebne.

Ponieważ moja praktyka pokazuje, że aby pojawić się wysoko, zdobywać pozycję lidera na konkretne frazy – czy to w Google News, czy w frazach evergreen – wcale nie musimy upychać w nich po 50-60 razy powtórzonych fraz, a to niestety się czasami dzieje. Tak jak powiedziałem, semantyka treści nie wyklucza warsztatu dziennikarskiego. Semantyka treści w onlinie pomaga użytkownikowi rozumieć lepiej materiał, zorientować się, w szczególności na urządzeniach mobilnych, czy materiał, który będziemy czytać jest dokładnie o tym, czego potrzebujemy, czy też nie. SEO może w tym właśnie pomóc.

Zapisz się do newslettera Senuto! Świeże materiały z bloga wprost na Twoją skrzynkę:


Z przykładów, co można zrobić: tytuł materiału w onlinie jest ważną rzeczą, która w princie była budowana w ten sposób, że tworzyliśmy bardzo poetyckie tytuły, prawie thrillery, w którym rozwiązanie czy konkluzja była dopiero na końcu materiału. W onlinie to nie działa. Oczywiście nie wszędzie. Może działać, na przykład, w materiałach, które są bardzo rozbudowane, szerokie, reporterskie, które stoją za paywallem, są zaadresowane tylko do bardzo zagorzałych użytkowników i tych, którzy są zdeterminowani, żeby te materiały czytać. I wtedy tak, zgadzam się, możemy troszeczkę przenieść ten warsztat printowy do warsztatu online.

Natomiast w większości wypadków jednak nie jest to dobra praktyka, ponieważ konsumpcja treści w onlinie, w internecie, jest bardzo szybka, treści jest maksymalnie dużo każdego dnia, więc ułatwienie czytelnikom za pomocą SEO selekcji tego, co chce na prawdę przeczytać, a czego nie, jest bardzo przydatne.

Tak jak wspomniałem o tym tytule redakcyjnym, jest on bardzo przydatny. Ważne, aby zawierał frazę kluczową, ten główny punkt, na którym będziemy opierać cały wątek, cały materiał. Tylko, jeśli chodzi o tytuł redakcyjny, on nie powinien wyglądać jak typowy tytuł SEO, o którym za chwilę z resztą powiem, tylko powinien być na prawdę tytułem redakcyjnym. Tam powinna zawrzeć się fraza kluczowa, ale powinna być bardzo naturalnie wkomponowana w ten tytuł.

Natomiast, jeśli mówimy o drugim tytule – tytule SEO – to sama jego nazwa determinuje, że jest to tytuł dla SEO, więc powinien być zbudowany stricte według wymagań SEO. Często za pomocą równoważników zdań, i pojedynczych fraz, ponieważ tak szukają naszych materiałów ludzie w internecie. Kiedy odnajdują równoważnik tego, co sami napisali w wyszukiwarce, to zwiększa to prawdopodobieństwo, że oni klikną w nasz materiał. Pomijam już aspekty algorytmiczne, dla których to może pomagać, ale to jest właśnie jedyny element strony, który powinien być stworzony tak na prawdę stricte pod SEO.

Kolejny element. Lead materiału, który powinien być naszym call to action do zapoznania się z dalszą treścią - tam rzeczywiście można umieścić frazę kluczową, nawet w pierwszym zdaniu. Jeśli tylko nie burzy to naszej koncepcji materiału. Ale to jest właściwie jedyna reguła, którą ja zawsze wyznawałem i przekazywałem innym osobom, które pisały materiały. Z takich rzeczy, które są odrobinę dookoła SEO-we – czyli przydatne dla SEO, ale bardziej przydatne w warsztacie dziennikarskim – jest to, aby pod leadem materiału znalazła się lista punktowana z podsumowaniem całego materiału.

Nie mylić tego ze spisem treści, mówię o podsumowaniu całego materiału, przydatnym w szczególności na urządzeniach mobilnych, gdzie nie czytamy w taki sam sposób jak na urządzeniach desktopowych. Kiedy siadamy przed naszym komputerem w domu, nastawiamy się na to, że będziemy czytać. Konsumpcja treści na urządzeniach mobilnych jest zupełnie inna. Na urządzeniach mobilnych przewijamy bardzo szybko, więc jeśli w pierwszym akapicie podsumujemy materiał, to najczęściej spełnimy intencje użytkownika. On więcej nie potrzebuje, chyba że naprawdę go zainteresował materiał, wtedy będzie go czytał dalej.

Więc to podsumowanie w postaci bulletlisty często jest naszym kolejnym call to action do tego, żeby użytkownik dalej czytał materiał. Albo, jeśli nie potrzebuje więcej, to i tak wychodzi szczęśliwy, że nie musi przeczytać połowy materiału, aby na samiutkim końcu dowiedzieć się, czy naprawdę dziś jest niedziela handlowa. On tego naprawdę nie potrzebuje.

Co zrobić pod tą bulletlistą? Umieśćcie tam link do najbardziej możliwie powiązanego materiału z tym, który właśnie czyta użytkownik. Dlaczego? Jeśli ta bulletlista wystarczy użytkownikowi i on nie chce już więcej, a znajdzie pod tą listą interesujący link, to w niego kliknie. Czyli nie wychodzi z naszego serwisu, tylko zwiększamy ilość page viewsów na sesję.

Kolejna rzecz, abyśmy układali semantykę materiałów za pomocą śródtytułów, czyli żebyśmy systematyzowali nasz materiał, stosując w nich śródtytuły, pod którymi opisujemy to, co zawarliśmy w tym śródtytule.

I ostatnia rzecz. Koniecznie wstawiajmy w materiałach linki do materiałów powiązanych z tym materiałem. Tak naprawdę w ciągu siedmiu minut opisałem cały proces, całą ścieżkę, która jest właściwa dla pracy dziennikarza. To są rzeczy, które da się zrobić od minuty do trzech minut w materiale. Nic więcej. Więc to się da pogodzić z dobrym warsztatem dziennikarskim, z tą taką poetyckością, z potrzebą wyrażania siebie przez dziennikarza, to się naprawdę da pogodzić w mojej opinii.

[Robert Niechciał] Ja się bardzo cieszę, że Grzesiek pominął aspekty algorytmiczne, bo z mojego doświadczenia dziennikarskiego jedno z drugim się nie wyklucza, czyli ta poetyka z optymalizacją. Bo właśnie są te śródtytuły, gdzie można dodawać frazy kluczowe, mamy linkowanie wewnętrzne, które pozwoli przykleić te frazy gdzie indziej. To są proste zabiegi, które spowodują, że decydujemy, jakie frazy na końcu są przyklejone do tych artykułów i jak to będzie rankować w Google.

Jeżeli takich rzeczy nie zrobimy, czyli zawierzymy tylko tej poetyce i temu, żeby tekst był piękny, ładny, to Google podejmie tę decyzję za nas. Na podstawie tej semantyki, którą też jesteśmy w stanie w jakiś sposób dooptymalizować, czy dzięki temu skrótowi, który znajduje się na górze.

[Łukasz Rogala] Z moich doświadczeń wynika, że ciężko jest za pierwszym razem napisać idealny tekst pod SEO, to jest bardziej pewien proces. Czyli pierwszy tekst, który powstaje, ma jakiś cykl życia i jeżeli to jest duży serwis, to wiadomo, że on ma tego ruchu na wejściu więcej, bo ma sporo stałych czytelników. Natomiast w moim przypadku to jest zawsze pewnego rodzaju proces i to jest tak, że pierwsza wersja testu jest spoko, ona sobie idzie live, ona się indeksuje, ląduje na jakichś pozycjach.

Natomiast potem dochodzi jeszcze kwestia ciągłej optymalizacji, ciągłej pracy nad tą treścią, poprawianie, rozbudowanie. Ta oś, którą SEO stworzyło na początku zostaje, a potem po prostu się to rozwija o dodatkowe słowa kluczowe bądź dodatkowe punkty.

Generalnie to jest tak, że każdy artykuł ma, powiedzmy, pewien cykl wtórny. Czyli startuje, ląduje na pozycjach, jest zoptymalizowany na wejściu, ale potem jeszcze ciągle nad nim pracujemy. Ta praca z tekstem się nie kończy. Chyba że to jest tekst o jakiejś określonej żywotności.

Część artykułów nie jest już potem wyszukiwana, więc jest kwestia albo utylizacji tych treści, albo zagospodarowania, przemigrowania ich w inne miejsca. I generalnie sugestia dla wydawców jest taka, żeby nie patrzeć na SEO jak na wroga, a raczej potraktować jako pewien punkt, inspirację do robienia czegoś z SEO.

Myślenie o SEO pozwala ułożyć pewne ramy artykułu. Mamy nadrzędne słowo kluczowe, mamy słowa kluczowe wspierające. Jest tona narzędzi na rynku. Senuto pozwala na szukanie fraz powiązanych jako tako z głównym słowem kluczowym. Więc pisanie treści, robienie fajnego dziennikarstwa, które spełnia też rolę SEO, nigdy nie było prostsze. Trzeba brać i korzystać, bo jest z czego.

AMA: SEO dla wydawców i dziennikarzy 1

[Robert Niechciał] Wskazówka dla wydawców, którzy nie posiadają płatnych narzędzi: świetnie do tego może przydać się Search Console. Publikujemy jakiś tekst, on zaczyna łapać pierwszą przyczepność z Google, jakąś trakcję, tarcie i w Search Console momentalnie zaczynają się dla tej podstrony pojawiać słowa kluczowe, które mogą być tipem do dalszej optymalizacji po cyklu na przykład dwóch, trzech miesięcy.

W tym raporcie będziemy mieli frazy, które znajdują się, powiedzmy, na piętnastym, dwudziestym miejscu, a generują bardzo fajne wyświetlenia. Jest to fajny tip, żeby już w tym cyklu żywotności tekstu dooptymalizowywać go do tego, żeby to dwudzieste miejsce zmieniło się na piąte.

[Grzegorz Strzelec] Musimy też rozgraniczyć dwa typy contentu, które pojawiają się w mediach i które mają zasadę pareto czasami, gdzie 20 procent tekstów w serwisie stanowią typowe evergreeny, gdzie praca nad tym tekstem może być procesem, oraz w osiemdziesięciu procentach, które są pisane tylko i wyłącznie pod Google News i mają czas życia od kilku godzin do maksymalnie 48-72 godzin.

I w tych materiałach, które mają czas życia kilka godzin, ten pierwszy strzał, to pierwsze uderzenie często jest najważniejsze, więc tu nie mamy tego czasu. Musimy od razu mieć w miarę dobrze zoptymalizowany materiał. Oczywiście Google News bardzo lubi aktualizacje i tam jest przestrzeń, ale najczęściej ten pik wyszukiwalności i pik największego ruchu jest w pierwszych kilkunastu do kilkudziesięciu minut od pojawienia się trendu.

Więc tak naprawdę ta pierwsza iteracja materiału, jej poziom optymalizacji, często wpływa na to, czy będziemy zbierać ten największy ruch, czy będziemy tę wisienkę na torcie mieć, czy będziemy zbierać już resztki po trendzie.

[Łukasz Rogala] Każdy wydawca powinien próbować Google Newsa znaleźć, ale nie każdy wydawca buduje tak swoją widoczność, jako tako więc najlepiej gdzieś tam myśleć cały czas o tym. Część newsów wraca też i to jest też kwestia, żeby się przygotować na to, że coś może wrócić i szybko wykorzystać historyczną treść oraz widoczność, żeby nadbudować sobie przewagę względem konkurencji, która się tworzy.

[Grzegorz Strzelec] Z moich doświadczeń najlepiej działa jednak publikowanie nowego newsa. Trendy rzeczywiście wracają, czasami po kilku, czasami po kilkunastu godzinach. W takiej sytuacji najlepszą praktyką jest jednak napisanie nowego newsa i wykorzystywanie starszych newsów do tego, żeby podlinkować ten nowy news.

[Robert Niechciał] Są sytuacje typu „najniższa krajowa 2019” i już wiadomo, że w 2020 będzie kolejny trend dla tej frazy. To też jest swojego rodzaju cykl tego, być może, evergreena, ale tam się trochę pozmienia. Zmienią się wartości, zmienią się lata, zmienią się sytuacje. Taka szybka optymalizacja starego tekstu w tym cyklu.

Może być masa różnych tematów – najniższa krajowa, średnia krajowa, renta, obojętne – i to co roku będzie nowy temat. Można sobie nawet założyć taki proces, w którym zmieniamy rok, zmieniamy dane i od razu wbijamy się szybciutko w trend, który się tworzy pierwszego stycznia.

[Grzegorz Strzelec] W mediach tworzy się kalendarze wydawnicze, które często są bardzo rozbudowane. To, co my rozpoznajemy w naszym umyśle jako kalendarz, nie ma z tym nic wspólnego. To są bardzo skomplikowane procesy. Na przykład wiemy, że będą mistrzostwa świata w piłce nożnej czy w siatkówce, więc ten proces przygotowań zaczyna się wiele miesięcy wcześniej i wykorzystuje się starsze materiały, ale tylko po to, żeby umocnić pozycje evergreenów wtedy, kiedy nie pojawia się bloczek Google News.

Ponieważ kiedy pojawia się bloczek Google News, evergreeny schodzą na dalszy plan i CTR, pomimo pierwszej pozycji tuż pod bloczkami Google Newsa, spada drastycznie.

[Karolina Matyska] Ale w takiej sytuacji, kiedy na przykład szukamy tej najniższej krajowej, czy średniej krajowej, to nie szukamy jej tylko wtedy, kiedy wyjdzie ustawa i nowe zarządzenie, ale tak naprawdę przez cały rok to jest zapytanie wrzucane w Google. Wtedy nie będzie Google News zawsze.

[Grzegorz Strzelec] Nie, to jest absolutnie proces dbania o evergreeny i o newsy.

[Łukasz Rogala] Rankingi finansowe, poprawne frazy w finansach, ranking pożyczek i, powiedzmy, miesiąc – to też jest pewnego rodzaju content, który ma jakąś określoną żywotność i też jest kwestia zagospodarowania tego w odpowiedni sposób.

[Karolina Matyska] Wracając do tego głównego pytania, o połączenie poetyki z SEO. Dodam, że tak naprawdę im więcej doświadczenia, tym to łatwiej przychodzi i jest mniej karkołomne, nie jest to takie kanciaste, tylko jest po prostu płynne przejście od frazy do zdania i to naprawdę da się sklecić.

[Grzegorz Strzelec] Dokładnie, tak jak powiedziałem wcześniej zajmuje to od minuty do trzech minut, nie mając prawie żadnej wiedzy, natomiast po pewnym czasie zajmuje to zero minut, ponieważ jest to automatycznie wpisane. Tak jak wiemy, ze musimy tworzyć tytuł, tak właśnie też dopasowujemy SEO do materiału.

Czy śródtytuły powinny się znaleźć nawet w krótkich tekstach, na przykład na tysiąc półtora tysiąca znaków?

[Grzegorz Strzelec] Uważam, że tak. Według mnie absolutnie dobrą praktyką jest , żeby tworzyć śródtytuł i pod nim tylko jeden akapit, i kolejny śródtytuł, i kolejny akapit.

[Robert Niechciał] To jest świetne, bo dzięki temu można wygrywać te sitelinki i wyniki organiczne będą zupełnie inaczej wyglądać. Tu można napchać emoji i wtedy mamy choinkę w SERP-ach.

[Grzegorz Strzelec] Dzięki temu przede wszystkim używać kotwic, zrobić spis treści. I daje nam to możliwość generowania dodatkowych sitelinków, zbicia konkurencji jeszcze troszkę niżej, powiększając wielkość naszego snippeta.

Jak zagraniczne media robią SEO?

Nie wszystkie zagraniczne serwisy dbają o SEO. Internetowe dziennikarstwo na przykład New York Timesa czy Wall Street Journal przypomina bardziej to tradycyjne, czyli papierowe. Mimo to są to niezwykle popularne portale i pytanie, czy nie jest to argument za tym, że media wcale niekoniecznie muszą tłuc to przeklęte SEO.

[Robert Niechciał] Oni są najwięksi na świecie, natomiast ja przypominam sobie historię z zeszłego roku. Daily Mail, czyli dziennik, który można podciągnąć pod ten trend, stracił całkowicie widoczność. To było w okolicach wprowadzenia algorytmu semantycznego. Oficjalnie ich dyrektor SEO pisał na forum Google'a z pytaniem, co się stało, dlaczego tak i tak dalej. Wtedy stracili z 80 procent trafficu.

[Robert Niechciał] Właśnie. Także z jednej strony mamy dziennikarstwo, nazwijmy to, high-endowe. Z drugiej strony algorytm semantyczny i taka sytuacja. Inne gazety nie dostały w tamtym czasie, pytanie dlaczego. Wydaje mi się, że to SEO w jakiś sposób jest robione i z tego co wiem na przykład New York Times zatrudnia masę stażystów, praktykantów, którzy muszą odgrzewać i edytować stare treści, dooptymalizowywać je. Po to, żeby taki recykling treści tworzyć, żeby stary content jeszcze performował w przyszłości. Według mnie to jest ciągle połączone, a przykład Daily Maila jest taką skrajną sytuacją, która pokazuje, że mimo, że jesteś duży, możesz dostać tak samo.

[Łukasz Rogala] Nam w ogóle najlepiej jest mówić, że SEO jest ważnym elementem wszystkiego, natomiast to wszystko się też rozbija o model biznesowy. Jeżeli są popularni, mają sporą rzeszę użytkowników, którzy powracają bądź płacą za dostęp do treści premium, to jest tak jak w niektórych firmach i w dużych markach. Wiedzą, że jakby zadbali o SEO, to by zgarnęli sobie dwadzieścia procent ruchu więcej, ale z drugiej strony im na tym nie zależy, bo są rozpoznawalni.

Ale generalnie zawsze jest to miły dodatek, jeżeli się pisze wartościowe treści, że wpływa się też trochę na postrzeganie przez odbiorców, wpływa się na to, jak oni postrzegają pewne kwestie. Natomiast, czy to jest jakoś mega ważne w takich mega dużych serwisach? Wszystko się rozbija o to, jak zarabiają. Żyjemy w takich czasach, że w internecie wszystko powinno być za darmo, więc duże serwisy monetyzują się reklamą. Każde źródło ruchu, w tym przypadku SEO, też jest ważne.

[Grzegorz Strzelec] Nie mogę się zgodzić, że New York Times czy Wall Street Journal wygląda, jak tradycyjne dziennikarstwo, bo nie, oni są bardzo online'owi. Naprawdę bardzo, bardzo. I to, że tego nie widać świadczy o ich kunszcie, a nie o tym, że nie używają SEO. Oni używają SEO i to bardzo, mają zajebiste SEO.

[Robert Niechciał] Tak a propos New York Timesa, oni posiadają jeden z największych serwisów produktowych na świecie TheWireCutter.com, nad którym zachwyca się cała afiliacja, jakim cudem to urosło do wysokich dziesiątek milionów ruchu. Robią niesamowitą robotę, bo wszyscy się zachwycają tym serwisem do takiego stopnia, że były tworzone specjalne mastermindy wokół tego serwisu, jak to jest zrobione.

[Grzegorz Strzelec] Potwierdzam: New York Times ma zajebiste SEO. Oni są tymi, którzy pierwsi na świecie wdrażają te nowinki, które wypuszcza Google. Kiedy Google kilka lat temu wypuściło AMP, to oni pierwsi to wdrożyli i nawet Google o tym pisał. Więc to nie jest tak, że oni nie mają SEO, oni mają zajebiste SEO, jedno z lepszych. To jest właśnie tam, gdzie wplata się mądre SEO w prawdziwe dziennikarstwo.

Tylko mamy jeden problem i to jest właściwie konkluzja. Musimy pamiętać o tym, że model monetyzacji tych treści jest podobny na świecie. Pomijając paywalla, który jest naprawdę tylko promilem przychodów większości mediów, to media monetyzują się w większości poprzez reklamy, czyli w modelu eCPM. I ten współczynnik eCPM w Stanach Zjednoczonych jest czterokrotnie wyższy niż w Polsce.

Co to mówi? Że ta sama długość treści, którą musimy stworzyć w Polsce i w Stanach ma cztery razy mniej czasu w Polsce, żeby ją stworzyć. Mamy cztery razy mniej czasu, żeby stworzyć treść, która zarobi na siebie. Koszt tworzenia treści też jest kosztem pracy dziennikarskiej, też jest kosztem prowadzenia mediów. Więc siłą rzeczy jakość tych treści w Polsce jest mniejsza, ponieważ jesteśmy po prostu małym rynkiem, w którym nie ma tyle kasy, żeby móc poświęcić tak dużo czasu na stworzenie tak dobrej treści, jak to często robi New York Times.

Wracając jeszcze do wątku, czy to przeklęte SEO jest nam potrzebne. No to Hiszpania zrobiła raz wyłączyła swoje SEO, czyli ustawą spowodowali, że Google News w Hiszpanii zniknął. Serwisy natychmiastowo odnotowały spadki od 20 do 50 procent w swoim ruchu. Nie mogłyby z tego przetrwać.

Wiecie, co dzisiaj robą hiszpańskie serwisy? Rejestrują domeny .com i wskazują hreflangami wersje na Hiszpanię. El Pais na przykład online'owo mówi „jesteśmy z Argentyny”, wskazują hreflangiem wersję na Hiszpanię i dzięki temu pojawiają się w Google News. Więc szukają sposobu wiedząc, jak bardzo jest im to potrzebne. Nie da się w dzisiejszym świecie funkcjonować bez Googe'a, w mediach nie jest to możliwe na szerszą skalę, a przynajmniej nie w tych mediach, które tworzą połówkę czy pierwszą dziesiątkę badań panelowych, czy też badań oglądalnościowych.

W jaki sposób nie dopuścić do kanibalizacji treści?

Siłą rzeczy na portalach pojawi się dużo podobnych, z perspektywy wyszukiwarki, artykułów. No i co z tym fantem?

[Łukasz Rogala] Ja to jestem takim fanem tego, by raz na jakiś czas siadać do wszystkich treści, jakie się ma, nakładać na to wskaźniki ruchu, widoczności i wszystkiego innego, i po prostu sobie konsolidować te treści. Czyli niekoniecznie robić jeden dłuższy artykuł, ale po prostu łączyć treści, które są, powiedzmy, już stare. Według moich doświadczeń, odchudzenie serwisu z treści, które nie mają już ruchu, skonsolidowanie ich z nowymi treściami, jeśli jakiś nowy trend wchodzi, ale bazuje trochę na starym – sprawdza się lepiej, niż utrzymywanie dwóch zbliżonych do siebie treści, które mogą się ze sobą kanibalizować.

No i to jest też kwestia na przykład w tematach bukmacherskich. Są rozgrywki, są typy, dotyczące konkretnych par meczowych. To też jest kwestia, czy robić oddzielny wpis na temat typów na niektóre mecze, czy trzymać wszystko na jednym URL-u i po prostu go odświeżać i aktualizować. Z moich doświadczeń sprawdza się to odświeżanie i aktualizowanie. To po prostu pracuje, to po prostu działa.

[Robert Niechciał] Wyjaśnię, czym jest kanibalizacja. Kanibalizacja jest to sytuacja, która szczególnie nasila się od ostatniego półtora roku, gdy algorytmy, modele dopasowania treści zmieniły się na machine learning. Jest to sytuacja, w której Google nie potrafi podjąć decyzji, którą stronę dopasować do danej frazy. Często może dopasować na przykład dwie albo losowo zamieniać: jednego dnia będzie jedna, drugiego dnia druga i tak to sobie będzie tańczyć. I skrajnym przypadkiem będzie to, że kiedy Google będzie miał wiele stron o tej samej treści, zoptymalizowanych pod tę samą frazę kluczową – nie dopasuje żadnej.

I to jest największe zagrożenie, kiedy mamy treść, mamy optymalizację pod daną frazę, na przykład „życzenia urodzinowe”, ale tych życzeń urodzinowych jest dwadzieścia typów i Google nie dopasuje żadnych stron. Właśnie to co powiedziałem na samym początku: poetyka dziennikarska jedno, ale SEO drugie. To jest skrajna sytuacja, w której niezastosowanie podstawowych zasad spowoduje to, że po prostu treść nie będzie performować, bo Google nie będzie potrafiło dopasować fraz.

Jak się przed tym bronić? Pierwsza rzecz, treści newsowe, to jedna kategoria i one będą żyły swoim życiem. Newsy się pojawiają cały czas i nie ma na to wielkiego wpływu. Trzeba je w jakichś cyklach optymalizować, analizować i później ewentualnie składać w jakieś huby tematyczne. Druga część, to jest plan contentowy, czyli to, gdzie chcemy się znaleźć z naszym serwisem w perspektywie na przykład trzech, czterech, sześciu miesięcy – i dobrze zbudowany plan contentowy spowoduje to, że tej kanibalizacji nie będzie.

Będzie jedna strona na temat właśnie tych życzeń urodzinowych, konkretnie zoptymalizowana: życzenia imieninowe, życzenia takie, takie i owakie. I dobrze stworzona treść na podstawie tego planu nie będzie się ze sobą kanibalizować. Jeżeli za jakiś czas dojdziemy do sytuacji, że będziemy znowu pisać o tym samym, no to będzie znowu taniec i Google nie będzie umiał dopasować.

[Grzegorz Strzelec] Rzeczywiście taka reorganizacja treści co jakiś czas po to, żeby wykluczać kanibalizację, byłaby najbardziej pożądanym procesem. Tymczasem we wszystkich mediach, w których pracowałem oznaczałoby to wielki proces, zarówno po stronie IT, jak i po stronie wydawców, który fizycznie często byłby nie do ogarnięcia.

Bo musimy zdawać sobie sprawę, że może w niższych mediach rzeczywiście jest kilkanaście sztuk contentu dziennie i to się da ograć, ale w dużych mediach mamy do czynienia z ilością tysiąca do dwóch tysięcy sztuk contentu dziennie. Opracowanie tego w jakikolwiek sposób, nawet algorytmiczny, byłoby bardzo skomplikowane.

Już mi przychodzi kilka czynników, które trzeba by było wziąć pod uwagę, a które są prawie nie do wzięcia pod uwagę. Jak myślenie o tym, czy na pewno ten artykuł powinien mieć canonical albo zmieniony tytuł, żeby nie kanibalizował się z innym, a właśnie się okazuje, że on przynosi najwięcej ruchu w tym momencie, pomimo że już ma 72 albo 96 godzin. Trzeba szukać drogi pośredniej, takiej praktycznej.

Więc tak, taki proces dbania o to, żeby nie było kanibalizacji, absolutnie powinien obowiązywać w przypadku wszelkich fraz evergreenowych. Tam, gdzie mówimy o czymkolwiek, co wyszukuje się w cyklach sezonowych, w okresie miesiąca, roku czy tygodnia, powinno być zadbane z punktu widzenia SEO, jeśli chodzi o kanibalizację.

Natomiast drugą częścią są właśnie artykuły newsowe, w których nie sposób zadbać o taki proces. Jest to po prostu niemożliwe fizycznie, byłoby to zbyt drogie, więc to, co najlepiej mi się sprawdzało, to po prostu zostawić to w cholerę, to i tak sobie samoistnie spada w czeluści w site mapach. Jedyne co robimy, to wstawiamy linki do materiałów nadrzędnych, czyli takich, które są już evergreenami.

Czyli, jeśli dziś mamy newsa o Donaldzie Tusku albo o Jarosławie Gowinie, czy innym polityku, to siłą rzeczy na pewno w serwisie mamy też temat, tag, notkę biograficzną, jakikolwiek adres, który jest evergreenem dla tego materiału. To co trzeba zrobić, to podlinkować ze starszych materiałów ten materiał, który ma być evergreenem. W 90 procent przypadków albo i więcej – bardzo subiektywnie oceniając, oczywiście – jest tak, że ten materiał evergreenowy rzeczywiście jest tym, który jest najwyżej, a materiały newsowe na tym wallu spadają coraz niżej.

Ponieważ zazwyczaj materiały newsowe nie są umieszczone w żadnej strukturze, są bardzo płaskie w strukturze serwisu – w przeciwieństwie do materiałów evergreenowych, które mają już klastry, są już ułożone w strukturze drzewa. Wiec tam rzeczywiście ta kanibalizacja jest ważna. Natomiast w tej strukturze takiej typowo wallowej, typowo płaskiej, jest tak, że one tak nisko spadają, że Google nie bierze ich pod uwagę często już po kilkunastu dniach. Chyba, że – oczywiście są wyjątki – któryś materiał zdobędzie bardzo dużo naturalnych linków, wtedy potrafi performować przez dłuższy czas.

Często po prostu to są sytuacje, które zdarzają się raz na dwa dni, raz na tydzień, i wtedy się indywidualnie podchodzi do tego materiału i się myśli, co z nim zrobić, aby wykorzystać jego potencjał.

[Robert Niechciał] Sugeruję nie rozpatrywać kanibalizacji z dnia na dzień, bo to nie ma sensu. Ten algorytm i tak potrzebuje trochę czasu, żeby przeliczyć content i porównać klastry. Teksty i kanibalizacja jest to problem bardziej długoterminowy niż taki szybki strzał newsowy.

W jaki sposób sprawdzić, czy treści i artykuły są kanibalizowane?

[Grzegorz Strzelec] Użyć Senuto.

[Karolina Matyska] Tak, dokładnie. W Senuto możecie to zrobić zarówno w Analizie widoczności, jak i w Monitoringu. Przy czym w Analizie widoczności, jeżeli nie macie złożonego projektu w Monitoringu, będzie to pewnie szybsze. To jest jeden ze sposobów sprawdzania kanibalizacji. Przyznam, że ja nie znam innych.

[Grzegorz Strzelec] Tak naprawdę Senuto umożliwia nam zautomatyzowanie całego procesu poszukiwania skanibalizowanych artykułów. Natomiast czasami mamy potrzebę, żeby zobaczyć to jednostkowo. Chcemy po prostu zobaczyć, który artykuł się kanibalizuje. Jeśli nasz traffic nie jest ogromny i ilość adresów w serwisie nie jest ogromna, najlepszym sposobem jest po prostu Search Console – nasze podstawowe narzędzie, w którym wpisujemy frazę, którą chcemy sprawdzić i możemy zobaczyć, które URL-e się pod nią wyświetlają.

Jeśli na wykresie widzimy taki rollercoaster, raz jeden artykuł, raz drugi się wybija, przełączając się pomiędzy artykułami – możemy być świadomi tego, że wtedy właśnie mamy do czynienia ze zjawiskiem kanibalizacji. To jest jeden z prostszych sposobów na sprawdzenie.

[Karolina Matyska] A czy można po prostu wpisać daną frazę w wyszukiwarkę i zobaczyć, czy są dwa URL-e na dany temat? To jest relewantna informacja?

[Grzegorz Strzelec] Niekoniecznie. Występowanie dwóch URL-i może być zjawiskiem pożądanym i niekoniecznie mamy tu do czynienia z kanibalizacją. Ze zjawiskiem kanibalizacji częściej mamy do czynienia, kiedy jednego dnia pojawia nam się jeden adres, a drugiego drugi adres.

[Robert Niechciał] Prostym, z technicznego punktu widzenia, wykryciem kanibalizacji może być zwykły skan serwisu i sytuacja, w której raport nam wypluje dwa artykuły o tym samym tytule. Na 99 procent w tym momencie mamy kanibalizcję, albo zduplikowane H1. To jest inna metoda, taka już, powiedzmy, onsite-owo techniczna, która pozwoli nam przynajmniej typować miejsca. Ja do określania problemu kanibalizacji używam jeszcze Ahrefsa.

Największe frazy, które chce się znajdować, rozwijam sobie, tam jest piękny wykres – i na tym wykresie, jeżeli są różne strony w danej chwili, no to już mamy kanibalizację. I a propos Search Consoli, to jest świetna sprawa: gdzieś widziałem darmowe raporty Google Data Studio, które zaciągają dane z Search Consoli i prezentują perfekcyjnie, w których miejscach w danej chwili znajduje się kanibalizacja. Czyli zewnętrzny raport stricte do tego.

W jaki sposób narzędzia SEO mogą wesprzeć lub ułatwić codzienną pracę dziennikarza?

[Łukasz Rogala] Dziennikarze nie korzystają z tych wszystkich fancy narzędzi SEO, jakie mamy, no a szkoda, naprawdę. Możecie żałować. Natomiast, patrząc od strony tworzenia contentu, jest mega dużo narzędzi, chociażby Senuto, które pozwala znaleźć inspirację do tworzenia treści, popatrzeć na co rankuje konkurencja, jakie mają słowa kluczowe. Na tej podstawie można uzupełnić te wszystkie rzeczy.

Jest jeszcze AnswerThePublic i tona narzędzi, więc pod kątem pracy z treściami bardzo to ułatwia. Wtedy nie jest już pisanie na czuja i czekanie, aż zarankuje, żeby było zobaczyć w Search Consoli, pod co się jeszcze można optymalizować – tylko można sobie przygotować plan wszystkiego na samym początku.

[Grzegorz Strzelec] Ja uważam, że dziennikarze nie korzystają z narzędzi SEO przede wszystkim dlatego, że nie są w stanie. Time to market dziennikarza jest zbyt szybki, żeby mogli w trybie live korzystać z narzędzi. Mało tego, wiele narzędzi odświeża się w trybie minimum dobowym, co zazwyczaj jest już o 23 godziny i 55 minut za późno dla dziennikarza. On potrzebuje mieć dane tu i teraz. Jeśli mówimy o frazach evergreenowych, to też dziennikarze nie korzystają z narzędzi.

Przez dziennikarzy rozumiem nie tylko tych ludzi, którzy pracują w redakcjach, ale też partnerów zewnętrznych, którzy tworzą treści evergreenowe i tam jednak najlepiej sprawdzają się gotowe briefy. Czyli dział SEO czy dział contentu dostarcza gotowy brief, jakiego materiału potrzebujemy i w jaki sposób on powinien być zoptymalizowany.

W przypadku artykułów newsowych ja sobie jestem w stanie wyobrazić – choć jeszcze nigdy na żywo nie widziałem – integrację poprzez API Senuto z wewnętrznymi CMS-ami firm i połączenie tego z danymi z Google Trends. W ten sposób można by każdego dnia mieć bardzo fajną rozpiskę, popartą danymi o wyszukiwalności z Senuto na tym, o czym warto w tym momencie pisać. Google Trends odświeża się w trybie co dziesięć minut, więc naprawdę dobrze działa i naprawdę szybko.

Dostarczając informacji nie tylko o tych newsach i trendach PAP-owych, ale o tym, czego naprawdę ludzie szukają w tym momencie najczęściej. Więc często jest dużą inspiracją do tego, żeby napisać jakiś materiał. Połączenie tego poprzez zintegrowanie się z API Senuto mogłoby być inspiracją do stworzenia bardzo fajnej wtyczkę do CMS-ów, która będzie pomagała w pracy dziennikarza jako narzędzie, które nie wygląda jak narzędzie. Po prostu twój CMS podpowiada ci, co masz zrobić.

I takie rozwiązanie w pracy dziennikarza mają sens. Rozwiązania, w których dziennikarz podczas swojej pracy musi wchodzić do zewnętrznych narzędzi sprawdzą się tylko w kilku czy kilkunastu procentach przypadków. Tych dziennikarzy, którzy są bardzo zajawieni na SEO i bardzo lubią pisać zgodnie z SEO. Mam na myśli najczęściej dziennikarzy technologicznych, biznesowych, którzy częściej zwracają uwagę na takie aspekty.

[Łukasz Rogala] Myślę, że wszystkie redakcje i w ogóle wszystkie działy SEO powinny się bardziej zaprzyjaźnić z Google Data Studio. My mamy dobre doświadczenie z tym, z kanibalizacją też. Nie wiedziałem, że są darmowe raporty, które pozwalają zidentyfikować kanibalizację, ale my na przykład wyłapaliśmy bardzo duży problem techniczny dzięki temu, że zmieniliśmy sposób, w jaki wyglądają dane.

Po prostu wyciągnęliśmy je na zewnątrz i okazało się, że jest duplikat. Taki potężny, całego serwisu, którego nie widzieliśmy w tych tabelkowatych rzeczach z Search Console. Jak wyciągnęliśmy do Data Studio, gdzie zwizualizowaliśmy sobie te dane, to nagle się okazało, że jest wow. Duży problem, który trzeba ogarnąć szybko, żeby nie tracić widoczności.

Jak wydawcy mogą motywować dziennikarzy do stosowania zasad SEO inaczej, niż poprzez "bo musimy mieć kliki”?

[Grzegorz Strzelec] To zabrzmiało bardzo pejoratywnie, a tak prawda jest taka, że kwintesencją pracy dziennikarza jest dotarcie do jak największego zasięgu. Ci dziennikarze piszą przede wszystkim po to, żeby to, co tworzą, było ujrzane przez możliwie najwięcej osób. Więc tak naprawdę te kliki, które brzmią tu pejoratywnie, są fundamentalnym celem pracy dziennikarskiej.

Często w redakcjach ubrane w szaty takiego brzydkiego celu, czyli musimy napieprzać, bo kliki, bo trzeba target zrobić, mówiąc tak bardzo już korporacyjnym językiem. Ja się z tym nie zgadzam, powinno być to w DNA dziennikarza, że on szuka zasięgu dla swojej publikacji.

Przykład nawet takich działań blogerskich. Bloger, kiedy publikuje swój materiał, to robi wszystko, żeby on dotarł jak najszerzej. Optymalizuje go pod SEO, publikuje na Facebooku, na Instagramie, kiedyś też na Pintereście, teraz na Tik Toku. Ludzie dzielą się tym, co stworzą, bo chcą, żeby dotarło to szeroko. Determinuje to te zachowania, czyli chcę, żeby mój materiał był oglądalny, więc dbam o wszystkie aspekty, które temu mogą pomóc.

Tworzę fajny og:title pod Facebooka, tworzę fajny tytuł pod SEO, troszkę optymalizuję i dobieram dobre zdjęcie po to, żeby na Facebooku mi się to sprzedało. To są wszystko działania po to, żeby zdobyć zasięg, więc tak naprawdę szukanie innych motywacji jest troszeczkę dorabianiem ideologii, w mojej opinii.

Można oczywiście budować model rywalizacji. Niektórzy ludzie z natury lubią takie formy, więc możemy sobie robić zawody w redakcji, kto najwięcej zdobędzie klików w tym miesiącu z Google'a albo z Facebooka. To zawsze jest jakiś sposób. Ubrać to w fajny model rywalizacyjny, z nagrodami. Ten kto wygra, powiedzmy, ma darmowe piwo na najbliższej imprezie, czy tam coś innego w knajpie.

Według mnie te kliki są jednak częścią tej pracy dziennikarskiej. Żaden dziennikarz nie chciałby, żeby zarzucić mu klepanie wierszówki. Tu nie chodzi o to, żeby napierdzielać „niedziele handlowe” po to, żeby mieć więcej. Natomiast chodzi o to, żeby jednak te zasięgi zdobywać i to jest chyba najważniejsze w pracy dziennikarza.

[Łukasz Rogala] Generalnie rozchodzi się o to, żeby też pokazać ludziom, że ich praca coś daje. W sensie, żeby informować: patrz, przepisaliśmy ten content, czy zrobiliśmy go fajnie i mamy top trzy na ciężką frazę. Wiadomo, że tam za tym wszystkim stoi większy mechanizm, trochę linków poszło, ale jak dobrze ubierzemy tę historię i dobrze pokażemy, że ta praca przekłada się na fajny ruch i fajne rezultaty, to ludzie sami się też zaczynają interesować.

To jest mega ważne, żeby rozpalić ten płomień do tworzenia fajnych treści i to jest bardzo trudne. Ale jak się pokazuje i często wraca z informacją, że – hej, fajnie napisany content, fajnie dopracowane linkowanie wewnętrzne, zobacz jak te SERP-y wyglądają teraz, fajne to jest – to ci ludzie się potrafią podjarać.

Tylko grunt, żeby ich informować o tym, że wszystko, co robią, przekłada się na wyższy cel. Nie, że jesteś tylko małym bloczkiem, że napisz tekst i spadaj, tylko, że jesteś częścią czegoś więcej. No i oni się wtedy zaczynają interesować tym tematem i sami myślą o SEO. Ja na przykład mam przyjemność pracować z ludźmi, którzy myślą o SEO cały czas. Tutaj pozdrawiam Krzysia od siebie z pracy. Krzyś jest takim człowiekiem, który myśli bardzo dużo o SEO zawsze i dba o te treści. To jest taki element rozpalenia frajdy w tym, co się robi. Tego życzę wszystkim, żeby z takimi ludźmi pracować.

[Karolina Matyska] Ja się zajmuję w Senuto content marketingiem i do pisania jedną z największych moich motywacji jest to, kiedy moje artykuły są najbardziej czytane – a kiedy są pod SEO, to są po prostu bardziej czytane i to jest magia tego SEO.

Czy media nie psują czasem internetu?

Jaki jest wasz komentarz na temat mediów regionalnych, które stosują przedziwne SEO akrobacje, aby pojawić się wyżej w Google na popularne i niekoniecznie medialne frazy, typu na przykład – kiedy przyjdzie wiosna?

[Grzegorz Strzelec] Sami w naszej branży, w różnych grupach, często wklejamy różne screeny, które powodują, że robimy facepalma, bo nie możemy patrzeć na to. Więc trochę psują. Tylko musimy też pamiętać w tym wszystkim, że społeczeństwo to nie tylko SEO-wcy, którzy rozpoznają to i widzą. Społeczeństwo to są też inni ludzie, którzy często patrzą na te materiały i rozumieją to, jako stan zastany, że tak ma być. Nie rozumieją przyczyn. My jako SEO-wcy, dziennikarze, rozumiemy przyczyny, dlaczego tak się dzieje.

Nie zmienia to faktu, że to rzeczywiście psuje internet. Ja na szczęście trafiałem zawsze do mediów, gdzie był bardzo silny firewall, który hamował takie zapędy. Dziś mam to już we krwi, dzięki temu. Zawsze trafiałem na osoby, które nie pozwalały na to, żeby popsuć, żeby stworzyć sieczkę „niedzieli handlowej”, czy innych tego typu fraz. Ta „niedziela handlowa” ostatnio jest na czasie.

Ale z drugiej strony musimy też mieć na uwadze to, co wspomniałem wcześniej, że kasa, którą możemy zapłacić za wierszówkę – bo tu już praktycznie mówimy tylko o wierszówce, to już nie jest dziennikarstwo – jest w Polsce ograniczona. Bo ze względu na to, że mamy bardzo niskie CPM.

Konia z rzędem temu, kto znajdzie mi medium, które jak widzi frazę "niedziela handlowa" – która łącznie ze wszystkimi łącznymi frazami ma wyszukiwalność na poziomie powyżej miliona wyszukiwań miesięcznie – to się nią nie zainteresuję. No każde medium się będzie tym interesowało, to jest bańka prawie darmowego ruchu. I to mówiąc tylko o głównych frazach, nie mówiąc o całym longtailu, który stworzy kolejne dwie albo trzy bańki potencjalnego ruchu.

Co ważne: ja uważam, że to przerysowanie, które widzimy w tego typu materiałach i w tworzeniu tego typu contentu jest za duże, niepotrzebnie za duże. Być może ktoś z tych mediów regionalnych słucha nas teraz. Ja mam sugestię: wybrać dwa, trzy serwisy i spróbować na nich robić te same rzeczy, ale dużo łagodniej, dużo mniej zoptymalizowane, tak, żeby dało się to przyjemnie czytać.

Być może tę bulletlistę dodać z podsumowaniem materiału, aby użytkownik już na samiutkim początku dostał informację "tak, gościu, dzisiaj jest niedziela handlowa", albo "nie jest dzisiaj niedziela handlowa". I w kilku bulletpointach wytłumaczenie, dlaczego. Uwierzcie mi, że możecie być zaskoczeni efektami, więc ja sugeruję zrobić taki test. Tylko test. Może nawet nie trzy serwisy. Spróbujcie na jednym, tylko i wyłącznie na jednym serwisie przeprowadzić taki eksperyment.

[Łukasz Rogala] Wiesz czym Grzegorz się to kończy? To będzie tak, że ten cały zapchany content z góry, on tak magicznie zjedzie na dół, poniżej pierwszego ekranu.

[Grzegorz Strzelec] Moje doświadczenia pokazują, że największy ruch na frazy – właśnie te, na które jest najwięcej takiego spamu – mają te serwisy, które najmniej optymalizują te materiały. Albo może nie najmniej optymalizują, tylko nie w takim stopniu.

[Łukasz Rogala] Wyjawię sekret SEO. Im mniej myślisz o SEO, tym lepsze SEO.

[Robert Niechciał] Ja tego nie rozpatruję z perspektywy jakości tego, co tam jest. Celem jest po prostu budowa ruchu i walka o ten eCPM, o którym powiedział Grzegorz. To jest najprostsza sprawa, by się wciskać wszędzie, dzięki mocy domeny, i ja to rozumiem, że to tak działa. Jeżeli zadbają o jakość, o której wspomniał Grzegorz, o tych bulletpointach, czy czymkolwiek, żeby to było lepsze, to wtedy jest win-win. Niech to robią dalej, niech się skalują, bo mają więcej ruchu, mają więcej pieniędzy, jak stać ich na opłacenie dziennikarzy, to już jest świetnie.

Co, jeśli CMS-y nie posiadają odpowiednich pól dla konkretnych tytułów (wyświetlanych i SEO)?

[Łukasz Rogala] Najprościej by było zmienić CMS, ale w zależności od tego, jaki to CMS, to walczcie o to, żeby wprowadzić takie zmiany. A jeżeli nie, no to próbować łączyć SEO z jakimś tam elementem clickbaitu.

[Grzegorz Strzelec] Chciałem jeszcze podkreślić, że i tytuł SEO, i tytuł redakcyjby – oba są wyświetlane, tylko w różnych miejscach: tytuł redakcyjny jest wyświetlany w materiale na naszej domenie, natomiast tytuł SEO jest wyświetlany też na pasku przeglądarki i jako tytuł w wynikach wyszukiwania. One wszystkie są wyświetlane, tylko mają swoje inne cele. Brak rozdzielenia tych dwóch tytułów jest pozbawieniem się istotnej części optymalizacji SEO. Z natury skazujemy się na to, że musimy tworzyć tytuły typowo redakcyjne, które jednocześnie będą wyświetlane jako tytuły SEO.

To powoduje, że z punktu widzenia optymalizacji klikalności tracimy pewną istotną część i tracimy też istotną część na możliwość przemycenia na przykład frazy w mianowniku liczby pojedynczej, czyli tak jak najczęściej wyszukują ją jej użytkownicy. Polecam, żeby dział IT po prostu jednak znalazł przestrzeń na to, żeby dodać taki tytuł oddzielny, lub jeśli jest to niemożliwe z przyczyn infrastrukturalnych w CMS-ie, to po prostu lepiej pomyśleć o zmianie CMS-a. Chociaż nie sądzę, żeby SEO tytuł był przyczyną zmiany CMS-a.

Co z Google News, jakie macie tipy, by tam się znaleźć?

[Grzegorz Strzelec] Można skupić się na kilku rzeczach. To, co jest najważniejsze, to żeby być trendowym. Czyli bloczek Google News pojawia się zazwyczaj wtedy, kiedy dany temat jest na tyle trendującym, że piszą o tym inne media, o konkretnym zagadnieniu – przykładowo, wszystkie media zaczynają pisać o Jarosławie Gowinie, Lewandowskim czy kimkolwiek innym. W tym momencie na frazę "Robert Lewandowski" i wiele pobocznych fraz z tym związanych zaczyna generować się bloczek Google News. Musimy to zrobić teraz, nie jutro, nie za trzy godziny, tylko w tym czasie, kiedy trend powstaje.

Time to market to jest dziesięć, piętnaście, dwadzieścia, trzydzieści minut. Można się dostać do bloczka później, ale trzeba mieć dużą reputację, jako serwis, żeby przegapiając trend tam się dostać. I mało tego – będziemy już zgarniać ochłapy, więc musimy pisać o rzeczach trendujących, które są trendami w tym momencie, i musimy o tym pisać teraz.

Czyli musimy mieć zbudowany w naszej organizacji proces, który zawsze wyłapuje trendy w naszej branży. Nie musi wcale to być branża polityki. To jest też branża biznesu, kultury, muzyki, filmu i wielu innych dziedzin naszego życia społecznego, w której możemy być wydawcą Google News i musimy wyszukiwać na bieżąco wszelkich najnowszych informacji i o nich po prostu pisać.

Poza tym, do spełnienia jest cały szereg wymagań technologicznych, niektóre są bardzo proste, a niektóre wymagają wręcz przepisania CMS-a, żeby je spełnić. Bardzo wskazane są odpowiednie standardy SCIM-a. Format news article, który jest bardzo wskazany. Bardzo wskazana jest specjalna mapa pod Google News.

Konieczne jest, aby nasz obraz był w odpowiedniej rozdzielczości. I jeszcze, uwierzcie mi, jeśli ktoś z was był na moim szkoleniu SEO Tour, to pamięta slajd, na którym była taka matryca, w której w każdym bloczku była inna wytyczna technologiczna, którą trzeba spełnić, żeby tam się dostać.

I teraz o co chodzi. Nie musimy tych wszystkich wytycznych spełniać w idealny sposób. Problem jest w tym, że komunikacja z Google News jest bardzo skąpa i może być tak, że nie spełniamy jednej z nich i zostajemy odrzuceni jako wydawca. To powoduje, że najlepiej jest jednak wdrożyć wszystkie te rekomendacje. Przykład: odpowiednie formatowanie daty jest kluczowe. Warto mieć w serwisie datę publikacji z artykułu i datę aktualizacji, jeśli aktualizujemy artykuły, ponieważ tą datą aktualizacji da się bardzo sprytnie manewrować usługę Google News. To są takie kolejne niuanse.

Natomiast fundament to jest zacząć pisać o trendach, najlepiej regularnie – jeśli nasz serwis nie jest w całości poświęcony newsom, wydzielić do tego odrębną kategorię serwisu, na przykład newsy, która jest pod odrębnym adresem URL.

I to jest dość ważne, żeby to był odrębny adres URL, gdzie znajdą się tylko i wyłącznie materiały newsowe. Ponieważ Google akceptuje do usługi Google News albo cały serwis, albo jego konkretne sekcje, więc jeśli nasze artykuły newsowe są przemieszane w dużej ilości z artykułami evergreenowymi w różnych kategoriach, to raczej będziemy mieli małe szanse na dobrą ekspozycję. Chociaż nawet możemy stać się wydawcami, możemy mieć problem z ekspozycją.

Przez to idealnym sposobem jest to, aby wydzielić odpowiednią sekcję. Zaczniemy od „newsy”, kiedy już się tam dostaniemy możemy stworzyć potem kolejne sekcje, które będą newsowe, ale już nazwane tematycznie, czyli na przykład "biznes", "gospodarka", "polityka". Tak jak to robią największe media. I wtedy kolejne sekcje mogą być dodawane do tej usługi Google News.

[Robert Niechciał] Tutaj jeszcze warto wspomnieć o AMP, które jest koniecznością. I mam prośbę, żebyś powiedział trochę o Google Discover, bo to jest nowość, a tam jest ogromny potencjał.

[Grzegorz Strzelec] Google Discover ma jeszcze troszeczkę inne reguły. Przykładowo, do Google Discover wymagają inną minimalną rozdzielczość obrazka, niż Google News. Wyższą i odpowiedni format tego obrazka, więc to już jest podstawa, żeby w Google Discover móc się pojawiać. To jest jedna wytyczna. Druga: tak samo pisanie o tematach trendujących, ciekawych. I tak na prawdę wiele więcej o Google Discover nie wiemy.

Dokumentacja jest bardzo skąpa, z moich doświadczeń każdy, absolutnie każdy serwis, nawet e-commerce'owy, może wpaść do Google Discover. Nawet miałem ostatnio przykład z Only Calculator, w którym był artykuł związany z kalkulatorem – chyba – zużycia papieru toaletowego, coś interesującego tam było, takiego trendującego – trafili do Discover i ruch poszybował. Ale to był peak i potem cisza.

[Karolina Matyska] Muszę powiedzieć, że nam też się udało z dwoma artykułami wpaść na Discover ostatnio i nawet nic nie robiłam, żebyśmy tam byli, a naprawdę ruch poszybował ładnie.

[Robert Niechciał] Dlatego ruszyłem ten temat, bo dokumentacji brak. To się pojawia znikąd w pewnym momencie. Nagle są peaki, ruch znikąd. Dlatego to jest bardzo ciekawa rzecz.

[Karolina Matyska] A możesz jeszcze powiedzieć, czym jest ten Google Discover, bo może nie wszyscy wiedzą.

[Grzegorz Strzelec] Każdy z nas kojarzy moment włączenia na przykład przeglądarki albo jakiejś aplikacji google'owej, newsowej czy przeglądarkowej w telefonie. I wtedy zaczyna nam się pojawiać wall newsów, ciekawe informacje z różnych serwisów. I to jest to miejsce, do którego najczęściej trafiają materiały właśnie w ramach Google Discover. Oczywiście ta usługa funkcjonuje jeszcze w innych usługach google'owych.

Natomiast co do tego, co pochodzi z naszych telefonów. Otwieramy rano telefon, włączamy przeglądarkę i widzimy inspirujący, ciekawy tytuł materiału. Klikamy. I to jest to, co powoduje bardzo duży przeklik, właśnie przde wszystkim z telefonów. Z tego powodu warto próbować nie dostać się – bo do usługi Discover się nie da dostać – tylko pisać na tyle newsowo, trendowo, żeby po prostu nasze materiały mogły być tam zaakceptowane.

Nie pamiętam wszystkich wymogów technologicznych, na pewno pamiętam tę o odpowiedniej rozdzielczości fotografii. Chyba też wymagane jest odpowiednie formatowanie treści. Nie pamiętam, czy są wymagane jakiekolwiek znaczniki semantyczne.

[Robert Niechciał] Wymogi technologiczne są bardzo zbieżne z Google Newsami. To jest taka usługa, która pojawia się właśnie znikąd od jakiegoś czasu w Search Console. Możecie sprawdzić swoją domenę, jak wejdziecie do Search Console, po lewej stronie, czy tam jest napis "discover" z taką gwiazdeczką. Jeżeli jest, to znaczy, że Google odpaliło to niejako dla waszej domeny i zapewne tam się pojawią peaki ruchu związane z tym, że jakiś tekst zaczął trendować i przynosić dużo ruchu w serwisie.

Tytuły i nagłówki tylko boldujemy, czy trzeba je oznaczać H3, H4, H1, H2?

[Łukasz Rogala] Nagłówki przede wszystkim. Śródtytuł, nagłówek.

[Grzegorz Strzelec] Ja uważam osobiście, że tytuł materiału powinien być najczęściej oznaczany nagłówkiem H1, natomiast śródtytuły nagłówkiem H2. To są nasze najważniejsze elementy treści, czyli tytuł i śródtytuły. One determinują zawartość. Tytuł determinuje zawartość całości, więc jest najważniejszą częścią naszego materiału, natomiast H2 – śródtytuł – determinuje zawartość dokładnie pod tym śródtytułem. Tak jakby systematyzuje nam o jeden poziom w dół cały materiał. Cała reszta w serwisie to już są kolejnego rzędu nagłówki H3. Jeszcze nie widziałem zasadnego użycia nagłówka H4. Do H3 maksymalnie, w mojej opinii.

[Robert Niechciał] Nagłówki H3, H4 mogą być fajnie zastosowane, jeżeli tworzymy jakąś hierarchię w artykule. Jeżeli mamy WordPressa, to są darmowe wtyczki, które generują fantastyczny spis treści i on właśnie, dzięki tym nagłówkom, zostanie ładnie poukładany, co z czego wynika. A to bezpośrednio przekłada się na zdobywanie tych sitelinków, czyli dekorowania naszych wyników w SERP-ach.

[Karolina Matyska] Często można zauważyć, że na portalach jest bałagan i na przykład na pojedynczych stronach nie ma w ogóle żadnych nagłówków, a ważne jest to, żeby tam ta jedna H1 była, H2 też – po to, żeby Google wiedział, jaka jest struktura danego tekstu.

[Robert Niechciał] Kiedy wszystko jest dobrze semantycznie ustrukturyzowane możemy walczyć o zero kliki, czy jakieś wyniki reach snippet. Także to jest wszystko połączone, musi to być tak zakodowane semantycznie. To jest podstawa.

Co, jeśli tworzymy medium od początku, zupełnie od zera?

Jak wtedy konkurować przy pomocy SEO z dużymi, regionalnymi czy ogólnokrajowymi portalami, kiedy jesteśmy praktycznie niewidoczni?

[Grzegorz Strzelec] W mojej opinii: zrobić wszystko, co się da, żeby jak najszybciej dostać się do usługi Google News. Czyli musimy przyjąć taką karencję na ruch, na okres mniej więcej od czterech do ośmiu miesięcy. Czyli, że ruch będzie kapał tylko i nic więcej, ale ten okres od czterech do ośmiu miesięcy, w zależności od natężenia procesu redakcyjnego, jest wystarczający, żeby dostać się do usługi Google News. Teraz ten proces chyba już jest automatyczny, już nie trzeba się zgłaszać, po prostu trzeba publikować.

Kiedy już się dostaniemy, to proces budowania reputacji u wydawców Google News to jest taki proces, który potrwa od kilku miesięcy do roku, ale już od początku możemy bardzo istotnie zwiększyć ruch. Przykład: jeden serwis, który mniej więcej rok temu wciągnąłem do Google News, z dnia na dzień zwiększył swoją widoczność w Google o ponad milion sesji miesięcznie.

Tak naprawdę, w ciągu kilu dni po dostaniu się do usługi Google News możemy już mówić o milionie sesji. Co jest wartością z wyszukiwarek, która pozwala się serwisowi w całości zmonetyzować kanałami eCPM, jakimiś sponsoringami, akcjami specjalnymi i różnymi innymi formami. Tak naprawdę już jesteśmy w stanie się utrzymać, tylko i wyłącznie dodając się do usługi Google News.

To jest pierwsze, na czym bym się skupił, ponieważ tworzenie mediów zazwyczaj oznacza koszty. To są redaktorzy, to jest utrzymanie serwerów, które muszą wytrzymać na początku niby niskie obciążenie – ale wystarczy jedna większa promocja i okazuje się, że to obciążenie jest gigantyczne. Musimy być gotowi na duże obciążenia. To determinuje, że koszty infrastruktury i utrzymania IT są całkiem spore.

Przez to utrzymanie medium już od początku generuje koszty. W mojej opinii, w pierwszym roku liczenie na poważne efekty z organicznego Google jest troszeczkę ślepym marzeniem. Raczej powinniśmy o tym nie myśleć od samego początku. Robić wszystko, żeby tak było w przyszłości, ale bez wielkiego oczekiwania efektów.

Natomiast Google News, a przy okazji właśnie Google Discover, może być dla nas szansą, żeby w możliwie krótkim okresie zacząć performować całkiem sprawnie. Dołączając do tego Facebooka, mając chwytliwe, ciekawe, porządne materiały i tytuły, jesteśmy w stanie zbudować widoczność w dość krótkim okresie. Oczywiście, jeżeli trafiamy w rynek z informacjami, których ten rynek oczekuje.

[Łukasz Rogala] Uważam, że powinno się wyjść od spełnienia technicznego minimum w zakresie SEO, zadbać o podstawy i myśleć tak, jak by się było już dużym zawodnikiem, czyli przygotować się pod budowanie dużego ruchu w przyszłości. Pytanie, w jaki sposób wydawca chce zarabiać w serwisie. Czy chce monetyzować content przez jakąś afiliację, czy chce go monetyzować w klasyczny sposób, jak duże serwisy?

W obu przypadkach zacząłbym od ogarnięcia wszystkiego, co technicznie jest ważne, stworzenia sobie dobrej architektury informacji, zaprognozowania tego, o czym będą tworzone te treści. W jakim kierunku będziemy szli. I generalnie bardzo dużo czasu poświęciłbym też na początku na analizę, korzystając z dostępnych narzędzi. Znaleźć low hanging fruits, gdzie duzi zawodnicy nie są jakoś mocno obstawieni i próbować pokryć najpierw ten content z długiego ogona wyszukiwania. W ten sposób zbudować sobie zasięg.

Natomiast, jeżeli zależy nam na tym, żeby być rozpoznawalnym, znaczącym medium, to poza próbą wejścia do Google News, myślałbym też o wykorzystaniu innych kanałów, żeby w innym miejscu też budować ten zasięg. Nie zamykać się nigdy na jedno medium, bo to najgorsze, co można zrobić w tym momencie. Żyjemy w takich czasach, są te touch pointy, są te momenty. Jeżeli zamkniemy się tylko na organic, to możemy się trochę rozczarować, bo będzie to trochę trwało, zanim wejdziemy i zaczniemy realnie konkurować.

Zaczynałbym od ułożenia sobie całej architektury serwisu, zaplanowania tego, w którym kierunku będziemy szli, a potem szukania low hanging fruits, czyli takich fraz, na których konkurencja nie jest mocna. Robienie sobie analizy content gap, czyli czego konkurenci między sobą nawet nie mają – bo jeżeli my napiszemy content, możemy ten content też wykorzystać po to, żeby na przykład pójść do jakiegoś serwisu i powiedzieć: "hej, słuchajcie napisaliśmy content na jakiś temat, więc możecie nas podlinkować". Możemy tak ładnie, po zachodniemu, próbować pozyskiwać linki. Tak bym myślał, żeby robić na samym początku, ale nie zamykałbym się też absolutnie tylko i wyłącznie na SEO.

[Robert Niechciał] To ja jeszcze dodam o strategii SEO, tej takiej organicznej, i zwykłym searchu. To, o co warto zadbać na samym początku, to technika i architektura informacji, to jest jasne. Kolejna rzecz to jakby plan contentowy, którym będziemy pokrywać frazy, żeby nie dopuścić do sytuacji, kiedy będziemy w kółko pisać o tym samym. Czyli będziemy pisać newsy, nie wiem, „nowa kolekcja Gucci 2020” – tego nikt nie będzie szukał, tylko pisać pod frazy, które będą nam się przyklejać do serwisu.

W pewnym momencie możemy, oczywiście to jest długoterminowa gra, strzelam – w pół roku, zacząć grać czynnikami behawioralnymi, CTR-ami i tak dalej, żeby się pojawiać w Google i żeby ludzie zaczęli wchodzić do nas. Być może Google News dostrzeże ten nasz serwis i w pewnym momencie zacznie go troszeczkę wypychać. Oczywiście linki są konieczne i tak dalej, natomiast ja bym tutaj szukał tego typu rzeczy, żeby przyciągać ruch przyciągać, żeby Google czuło te CTR-y u nas i to, że jesteśmy.

I oczywiście linki, czyli w zależności od strategii: kupowanie, rozsyłanie treści do innych redakcji, w celu podlinkowania infografik. Przy tego typu wydawcach może się fajnie sprawdzić i to jest rzecz niezbędna, by funkcjonować, performować w perspektywie roku.

Co z informacjami z PAP. Czy warto poświęcać czas zmieniając tekst? Jeśli PAP stanowi około 30% informacji na portalu.

[Grzegorz Strzelec] Trzeba selekcjonować te wiadomości PAP-owskie, które mogą mieć potencjał ruchu dla nas właśnie z Google Newsa. I te rzeczywiście warto zmieniać i rozwijać. Czasami wystarczy zmienić dosłownie lead tego materiału, zostawić główną treść, zmienić link, zmienić tytuł, zmienić tytuł SEO i to może być już całość procesu, i to możemy publikować.

Ja generalnie nie polecam publikacji przedruków PAP-owskich bez żadnej zmiany, ale wiem, że takie praktyki są i z tego potrafi kapać. Tylko ja nigdy nie potrafiłem sobie odpowiedzieć na pytanie, ile to czyni więcej szkody niż pożytku dla serwisu, takie duplicate contents z innymi serwisami. Ale dla takiej czystości, ortodoksyjności moich poglądów ja zalecam, żeby nie publikować czystych przedruków. Czyli selekcjonujemy z PAP tylko i wyłącznie to, na czym nam zależy, co ma potencjał, co się wpisuje w tematykę naszego serwisu i albo po prostu przepisujemy to, cytując tylko PAP, albo przynajmniej zmieniamy tytuł SEO, tytuł redakcyjny i lid.

[Robert Niechciał] Wydaje mi się, że tego typu praktyki, właśnie przedrukowywanie czy branie tego contentu z PAP-u jest spoko, jeżeli to idzie do tego segmentu szybkich newsów, które będą spadać i nie nastawiamy się, żeby to w krótkim terminie performowało jakkkolwiek w Google, tylko w innych kanałach. Mamy news, wrzucamy na fejsa, wszędzie, gdzie się da – i to idzie. Natomiast z perspektywy SEO duplikacja treści, czy właśnie takie słabej jakości artykuły, w dłuższym terminie nie będą przynosić ruchu do serwisu.

Zapisz się do newslettera Senuto! Świeże materiały z bloga wprost na Twoją skrzynkę:


[Łukasz Rogala] To też zależy od tego, kim jesteś. Bo jak jesteś dużym serwisem o potężnym autorytecie, to możesz brać treści słabszych zawodników i je wrzucać. Nie masz problemu z tym, że masz taką samą treść jak sto innych serwisów, bo ty jesteś mocniejszy. Jesteś bardziej utytułowany – upraszczając bardzo cały mechanizm. Natomiast jak jesteś małym wydawcą i szukasz sposobu, żeby pozyskiwać nowe treści, żeby coś kapało, to wzięcie takiej informacji, przepisanie jej, chociażby danie klikalnego leada, popracowanie z tytułem i ewentualnie rozbicie tej informacji na kawałki z jakimś swoim komentarzem jest dużo lepsze, niż takie po prostu kopiuj-wklej i liczenie na to, że się będzie gdzieś wysoko. Nie na początku, jak się jest początkującym wydawcą i ma się świeży serwis.

Wiadomo, że serwisy dotyczące tematyki zdrowotnej są pod szczególnym "nadzorem" Google. Prośba o konkretne wskazówki i rady, jak zadbać o to, aby popracować nad wiarygodnością strony w oczach Google'a.

[Robert Niechciał] Pytanie chyba jest odnośnie tych algorytmów medic, które cyklicznie nawiedzają wyszukiwarkę. Teraz robimy testy, by problem tego algorytmu zacząć rozważać w linkach. Wyjść z założenia, że branża, w szczególności zdrowotna, jest mocno spamowana, atakowana afiliacyjnie przez produkty związane z suplementami beauty itd. Jakość linków jest znikoma, albo jest masowa. Dlatego przede wszystkim zadbać o warstwę linków, bo z tego, co obserwuję przez ostatnie kilka iteracji tego algorytmu, tam są powody ewentualnych spadków.

Do tego były pomysły, że treść musi być podpisana jakimś autorem, najlepiej profesorem albo jakąś fejk personą, która jest nie wiadomo jak uczonym w tym temacie. Natomiast z perspektywy dwóch lat praktycznie – bo od dwóch lat się zderzamy z tym problemem – to nic nie dało. Sugerowałbym szukać tego autorytetu w linkach dla takich serwisów i dbać o semantykę treści, o plan.

Jeśli chodzi o kanibalizację, to w szczególności w tego typu serwisach znajdują się problemy i powody ich spadków. I oczywiście jeszcze jedna rzecz: te algorytmy głośno okrzyknięte medicami są widoczne praktycznie we wszystkich branżach. Być może medyczna czy zdrowotna jest na świeczniku, natomiast jest to widoczne w każdej innej branży. Nie można tego tylko zawęzić do branży zdrowotnej.

[Grzegorz Strzelec] Jednym z większych błędów, jaki ja dostrzegam w serwisach medycznych, które notują taki rollercoster od nie tylko dwóch lat, jest to, że bardzo często mieszają content, który jest stricte medyczny, z contentem, który jest bardzo lifestylowy. Według mnie to może być jedna z tych przyczyn, które determinują, że te serwisy nie mogą się przebić na te artykuły bardziej medyczne, bardziej zorientowane na tematykę chorób.

Linkowanie to absolutna bolączka tej branży medycznej, z tego względu, że większość opieki zdrowotnej – czy tych podmiotów, które mogły by być dostawcą linków dla branży medycznej – jest hermetyczna, pozamykana i bardzo ciężko wydębić od nich link. A takie linki byłyby najcenniejsze. To jest jedna strona medalu. Ale to, co ja obserwuję w serwisach, które miały problem z medic'iem, to było to bardzo wielkie mieszanie contentu.

Przykład: miałem przyjemność pracowania przez lata nad serwisem Medonet.pl, który dziś jest liderem branży medycznej i tam postawienie na wysokiej jakości content, prawie że bez myślenia o wielkich linkach – dosłownie przelinkowania tylko troszkę z innymi serwisami w ramach grupy – to robi swój potencjał. Natomiast niejednokrotnie widzieliśmy, że przelinkowanie się Onetu wcale nie musiało przynosić oczekiwanych rezultatów, jeśli jakość contentu była pod psem.

Ta jakość contentu, w mojej opinii, jest istotna, czyli oprócz tego, że nie poruszamy zbyt lifestylowej tematyki, w serwisie typowo medycznym, to druga sprawa – dbamy, żeby ten content był odpowiednio sklastrowany. Żeby budował odpowiednie topical authority. W ramach jednego piece of content oczywiście, czyli content ma poruszać odpowiedni temat, nie wychodzić za bardzo. Uwzględniać frazy semantyczne, które są znaczeniowo bardzo blisko. Często ludzie rozumieją tak, że użyć innej frazy semantycznej, to znaczy użyć takiej frazy, która jest bardzo często wyszukiwana. A guzik prawda. Nie o to chodzi.

Frazy semantyczne nie mają nic wspólnego z wyszukiwalnością. Mają dużo wspólnego z bliskością siebie w powszechnym użyciu. To jest klucz do tego, żebyśmy takich fraz używali w takich materiałach. O długości nie wypowiadam się. Nigdy nie znalazłem korelacji, jeśli chodzi o długość takich materiałów, ale wypełnienie odpowiednią liczbą fraz często samo determinuje długość tego materiału. Nie musimy skupiać się na konkretnej długości materiału, tylko chcąc poruszyć w całości dane zagadnienie, i tak rozpiszemy się troszkę.

Ja lubię czasem przyjąć taki czynnik, który bada konkurencję na konkretną frazę i sprawdza, ile oni mają napisanego tego tekstu i staram się od tej konkurencji zbytnio nie odstawać. To jest jedyna reguła, ale czasem sam odchodzę od tej reguły i z powodzeniem.

[Łukasz Rogala] Problem z madic'iem jest taki, że obrywały serwisy, do których nie dało się przyczepić pod kątem technicznym nawet. To się nie działo tylko i wyłącznie w branży medycznej. To po prostu taka niefortunna nazwa, no bo największe spadki były właśnie tam, ale obrywały też serwisy, które w myśl koncepcji "your money, your life", w jakiś sposób mogą oddziaływać na użytkowników.

Z moich doświadczeń to jest tak, że obrywały dwie grupy serwisów. Pierwsze to takie, które miały ewidentnie jakieś zaszłości on-site'owe – rzeczy, które odkładane były na później, bo do teraz rosło, nie było problemu i przy pierwszej lepszej okazji, czyli przy medicu – ciach, spada wszystko. A druga rzecz to jest coś, na co wielu ludzi nie patrzy – kontekst zapytań. Tutaj bardzo pomaga historia SERP-ów, żeby zobaczyć, czy nie doszło do zmiany kontekstu jakiegoś zapytania.

Przy medicu bardzo często tak było, że Google stwierdzało, że zamiast pokazywać, dajmy na to, długi content medyczny, stwierdziło, że jeżeli ktoś wpisuje "nadciśnienie", to może go interesować nie, co to jest nadciśnienie i jak się ono objawia, tylko konkretne rozwiązania. Bardzo często apteki zaczynały wskakiwać na takie zapytania, które wcześniej miały charakter bardzo informacyjny.

Do tej analizy i optymalizacji contentu mega ważne jest patrzenie na kontekst zapytania. Są opracowania w internecie, które to podsumowują, więc jak ktoś nie ma czasu, a nikt go nie ma, to może sobie przeczytać, żeby patrzeć też na optymalizację przez pryzmat tej intencji i odpowiadania na ten kontekst.

[Robert Niechciał] Polską Akademię Nauk stworzyła narzędzie, dzięki któremu za darmo możecie sobie sprawdzać słowa, które są blisko w języku polskim i je wykorzystywać do tej optymalizacji dystansu semantycznego. My stosowaliśmy to narzędzie do tego, żeby przechwytywać snippety. Bo żeby przechwycić snippet, dobrze jest opisać temat słowami związanymi semantycznie. Przy użyciu tego narzędzia, które Karolina wkleiła, opisywaliśmy jakieś artykuły słowami i nagle łapaliśmy zero-click search.

[Karolina Matyska] Dodam, że w Senuto mamy taki raport "słowa zależne" i tam też podajemy frazy, które są powiązane semantycznie i które powinny się znaleźć na tej samej stronie, co fraza główna, pod którą sobie optymalizujecie artykuł. Po to, żeby nadać jej taki kontekst semantyczny, żeby Google trochę lepiej rozumiało tę treść

Na jakie metryki w Google Search Console wydawcy i dziennikarze powinni zwracać uwagę?

[Grzegorz Strzelec] To jest ciekawe pytanie. Ja spotkałem się z różnymi redakcjami, które były na przykład totalnie zajawione na dane. Miałem raz styczność z redakcją technologiczną, dla której specjalne raporty tworzyliśmy w Data Studio tylko po to, żeby zaspokoić ich ciekawość i ich potrzebę ciągłej walki o to, żeby tworzyć lepsze wyniki. Dla nich przydawały się raporty, które pokazywały ich performance z dnia na dzień.

Właściwie oni bardziej potrzebowali dostępu do Analiticsa niż do Search Console, a najlepiej, to gdyby te dane były połączone – czyli żeby mieć natychmiastowe dane o ruchu i jednocześnie najszybciej, jak się tylko da, informacje o frazach, na które zaczyna performować materiał.

W pracy dziennikarza Search Console może być dobrym narzędziem, ale takim post factum już po kilku dniach. Wynika to z samego faktu, że my nasze działania podejmujemy tu i teraz, największy efekt otrzymujemy zazwyczaj w pracy newsowej jeszcze wtedy, kiedy w Search Console nie mamy danych. Czyli już skończyliśmy trend, artykuł już jest w niebycie, a my dopiero teraz zaczynamy mieć dane w Search Console, więc możemy analizować to tylko post factum.

Search Console w takiej bieżącej pracy nam nie pomoże, ale w analizie tygodniowej czy dwutygodniowej, czy miesięcznej rzeczywiście można wykorzystywać Search Console po to, żeby sprawdzać, które artykuły sprawdziły się najlepiej, które performowały najlepiej, czy na jakie frazy performowały te artykuły, jaka była klikalność.

Można próbować sobie odpowiadać na pytania, robiąc testy tytułów SEO, czyli tworzymy dziesięć różnych wersji tytułu SEO i sprawdzamy, który z nich performuje najlepiej w różnym typie materiałów. Powiedzmy, jeden tytuł SEO w dwudziestu materiałach dziś będzie miał call to action w takiej, a nie innej formie, jutro będzie to inne call to action, pojutrze nasze materiały będą w ogóle bez call to action w tytule SEO, i po dwóch tygodniach robimy sobie podsumowanie za pomocą search console. Sprawdzamy, który rodzaj call to action funkcjonuje najlepiej i w jakim rodzaju materiałów.

Musimy pamiętać o tym, że nasza odwiedzalność z wyszukiwarek to może być tylko procent tego, jak często ludzie wyszukują dany materiał. Często od jakości zdjęcia, od tytułu, zależeć będzie, jak wiele osób kliknie. W pierwszy tytuł w wynikach wyszukiwania może kliknąć tak samo dwa procent osób, jak i 90 procent osób. I często tym tytułem możemy wpłynąć na zwiększenie tego wskaźnika, czyli tak na prawdę jednym tylko malutkim elementem jesteśmy w stanie zwiększyć nasz ruch o 20, 30 czy 40 procent.

Jak optymalizować wideo, żeby było SEO-wo poprawnie?

[Łukasz Rogala] U nas w Polsce jeszcze tego nie widziałem, nie wyszukuję też jakoś dynamicznie wideo, ale te timestamp-y są bardzo ciekawym rozszerzeniem. Dodaje się opis na YouTubie i jest szansa, że się wyświetli w SERP-ach poszczególnych minut, tak, że można sobie przechodzić bezpośrednio. Nie wiem, czy pytanie dotyczy tego, jak osadzać to wideo na stronie, żeby ono pracowało z widocznością całego serwisu, czy żeby wideo z YouTube'a wskakiwało sobie wyżej w SEARP-ach. Bo to są trochę różne zagadnienia.

[Karolina Matyska] Wydaje mi się, że chodzi tutaj o użycie tego wideo na stronie artykułu jednak.

[Grzegorz Strzelec] Z wideo jest jeden problem. W mediach te wewnętrzne wideo często nie są publikowane na YouTubie – są przede wszystkim publikowane na wewnętrznych serwerach. I to przeważnie są serwery CDN tylko dla wideo. One mają specyficzną dla siebie optymalizację, po to, żeby to wideo było na tych serwerach najwydajniejsze.

Pewna dynamika, z jaką serwujemy to wideo na stronach powoduje, że przede wszystkim nie jesteśmy w stanie zastosować w tych materiałach odpowiedniego formatu, który obligatoryjnie wymaga podania od nas adresu URL tego materiału wideo. To powoduje, że w naszych materiałach wideo najczęściej tracimy możliwość jakiejkolwiek optymalizacji.

Jedyną alternatywą w takiej sytuacji jest po prostu równoczesna emisja tych materiałów na YouTubie i embedowanie ich w serwisie. To jest absurdalne i prawie nikt tego nie robi, bo to jest błędne koło – posiadanie własnego serwera po to, żeby publikować na YouTubie i embedować to u siebie.

Natomiast, żeby wykorzystać te aspekty SERP-owe, które wynikają z oznaczenia odpowiednimi danymi semantycznymi wideo, mogą być spełnione tylko i wyłącznie wtedy, kiedy to wideo będzie mogło mieć przypisane konkretny adres URL, zawsze. I wtedy ma szansę, żeby częściej emitować w wynikach wyszukiwania snippet, który będzie zawierał obraz z tym trójkącikiem, który pokazuje, że to jest materiał wideo. Co ewidentnie powoduje, że może nam wzrosnąć CTR.

Czy możliwe jest skuteczne pozycjonowanie serwisów newsowych stosujących hard paywall?

Jaki wpływ na SEO ma stosowanie First Click Free? 

[Grzegorz Strzelec] Ja jeszcze nie widziałem, żeby paywall dobrze przyczynił się do ekspozycji w wynikach wyszukiwania, a przede wszystkim w Google Newsie. Jeszcze nie widziałem takiej sytuacji i to jest zazwyczaj problem. Dlatego musimy umieć postawić karty jasno: albo zarabiamy poprzez paywall i wspierając to troszkę organikiem – bo te artykuły będą się troszeczkę pojawiały, ale na pewno będą miały gorszą ekspozycję niż te, które są w całości dostępne – albo po prostu mamy otwarty model i wtedy stawiamy na SEO, Google News.

W Polsce jest za mało przypadków dobrych, dużych wdrożeń paywalla. Ja widziałem jedno, może dwa wdrożenia paywalla, plus te kilka, które pojawiły się na rynku, które można było obserwować. Nie widziałem żadnego, które by jakoś super performowało po jakimś czasie od wdrożenia.

[Robert Niechciał] Jeżeli stosujemy ten hard paywall, wycinamy część tekstu, Google nie jest w stanie go zaindeksować – to automatycznie jest odpowiedź, co się wydarzy. Będzie po prostu mniej fraz, gorszy performance itd. Ja bym tutaj szukał rozwiązania, stosując jakieś frameworki java scriptowe, których Google do końca nie umie wyrenderować.

Lub tak ograć optymalizację java scriptem, na przykład w react'cie, by Google dostało pełną treść, a użytkownik jwewnątrz tej reaktywnej aplikacji dostał tego paywalla. Ograć to w taki sposób, żeby Google mimo wszystko miało cały tekst, a użytkownik w jakiś sposób dostał paywalla.

[Grzegorz Strzelec] To nie jest tak, że paywall całkowicie wyklucza SEO. To nie tak. Chodzi o to, że będzie gorszy performance. Ciężko zrobić dobre SEO na paywallu.

W jaki sposób Google będzie kształtował branżę dziennikarską w następnych latach?

[Grzegorz Strzelec] Dużo zależy od determinacji ustawodawców w Unii Europejskiej. Kolejne acta, kolejne wdrożenia różnych rozwiązań systemowych, mających zmusić monopolistę do dzielenia się swoimi zyskami, mogą zrobić pewną roszadę na rynku. Dziś, jakkolwiek dziwnie to nie zabrzmi, Google jest troszeczkę takim wirusem tkanki dziennikarskiej – to trzeba jasno sobie powiedzieć – z tych powodów, o których dzisiaj mówiliśmy.

Zmusza często wydawców do robienia brzydkich, głupich rzeczy, które nijak się mają do dobrego warsztatu. Nie jest to ujma. Rynek po prostu wykorzystuje dostępne narzędzia. Google jest takim narzędziem, więc jest wykorzystywane. Nie wykorzystujesz ty, wykorzystuje ktoś inny i wygrywa rynek. To jest po prostu życie i rynek. Musimy się z tym pogodzić, że tak jest, że wiele mediów nie robi tego, bo bardzo ma na to ochotę, tylko robi to, bo musi, żeby trwać, żeby utrzymać swój poziom przychodów, żeby nie zwalniać i nie redukować swoich zasobów dziennikarskich.

[Karolina Matyska] Ale też rosnąć.

[Grzegorz Strzelec] Ale też rosnąć, tak. Ja jestem za tym, żeby Google kształtowało troszkę lepiej ten rynek dziennikarski, bo ma na niego olbrzymi wpływ. Prawie każdy z nas styka się z newsami głównie poprzez Google'a. Oczywiście mamy media w Polsce, które mają bardzo silne brandy. Mamy Onet, mamy WP, mamy TVN, mamy Gazetę i parę jeszcze innych brandów z silnymi markami, które są odwiedzane też bezpośrednio.

Natomiast dużą część tego tortu stanowi właśnie ruch z wyszukiwarek, często też napędzając siłę brandów. Czyli ludzie odwiedzają poprzez Google'a pewne materiały, potem wchodzą bezpośrednio, utwierdzając się, że brand jest silny. To jest takie myślenie życzeniowe, ale byłbym za tym, żeby Google lepiej poukładało algorytm Google Newsa tak, żeby on równo wszystkim wykluczył możliwość takich działań, jakie są w tym momencie. Czyli wszystkim ucinamy tyle samo, wtedy nikt się nie będzie o to bił.

Bo dziś mamy taki rynek, w którym nikt nie zrezygnuje świadomie z tej przysłowiowej już "niedzieli handlowej". To jest takie moje życzenie. Tak Google mogłoby kształtować rynek dziennikarski. Sądzę, że to się będzie działo, tylko to jest powolny proces. Już mamy pewne zmiany, mamy lepszą konsolę dla wydawców google newsowych, więc podejrzewam, że to jest jakiś tam początek zmian. Mamy parę nowych znaczników, więc to pewnie kwestia czasu, aż ten algorytm się ulepszy.

Dziś jest on taki, że cały czas prostą regułą "użyj mianownika liczby pojedynczej twojej frazy najczęściej jak się da w materiale, a będziesz pierwszy". Potem aktualizuj materiał co godzinę o kolejny akapit, zmieniając mu odrobinę tytuł i datę aktualizacji i znowu będziesz pierwszy. To jest niestety funkcjonujący przepis. Tak to działa.

Niektóre media wykorzystują to z większą premedytacją, niektóre z mniejszą. Tak właśnie Google kształtuje dziś ten rynek dziennikarski w Polsce, zmuszając do robienia rzeczy, na które dziennikarze naprawdę nie mają ochoty i często te procesy są automatyzowane wręcz. Tu by było moje życzenie, żeby Google ukształtował tą branżę tak, żeby nie miała potrzeby robić takie rzeczy. O ile oczywiście, tak jak powiedziałem na początku, nie stanie się coś z naszymi ukochanymi ustawodawcami w garniturach w Brukseli, którzy po prostu wyleją dziecko z kąpielą i na przykład odbiorą całej Europie, czy Unii Europejskiej Google Newsa.

[Łukasz Rogala] Google dąży do tego, żeby zatrzymać użytkownika u siebie, więc ja bym na miejscu wydawców traktował Google'a jako narzędzie do wygenerowania ruchu, ale szukałbym sposobu, żeby go lojalizować i zatrzymywać u siebie. Żeby tak ślepo nie wierzyć w to, że Google jest spoko źródłem, bo Google jest spoko źródłem teraz, a nie wiemy, co się stanie za rok.

Może być tak, że Google będzie brało sobie newsy w stu procentach, kradło content i wrzucało go u siebie, jako artykuły u siebie. Google Articles zrobią sobie, przykładowo. Coś, co zasilamy jako tako, bo my zasilamy wyszukiwarkę, wydawcy ją zasilają, może zostać obrócone przeciwko wydawcom. Raczej patrzyłbym na Google'a jako na narzędzie, jako sposób, żeby pozyskać ruch, ale myślałbym też jak go potem od razu lojalizować.

Bo ja bym się nie zdziwił jak za rok na przykład Google zacznie kraść treści, monetyzować na swój sposób. Kiedyś usłyszałem, że Google to jest taki „frienemy”, że to jest z jednej strony twój friend, ale z drugie strony twój straszny wróg, twój enemy, który wykorzystuje Cię, żeby siebie zmonetyzować suma sumarum. Nie wiem, czy Google ukształtuje rynek wydawniczy i wydawców, w innym kierunku niż żeby okraść nas kiedyś z treści i zmonetyzować na swój sposób. Smutne, ale prawdziwe.

[Grzegorz Strzelec] Jeszcze smutniejsze jest to, że hasło "don't be evil" od dwóch lat nie funkcjonuje już w Google'u jako naczelne hasło. Teraz jest hasło inne, "do the right things". Do the right things, aby zwiększać nasze zyski.

[Robert Niechciał] Zdecydowanie, jako trend długofalowy należy wskazać voice search, który powstaje w Polsce. Na pewno będzie miał duży udział. A voice search jest bardzo mocno skorelowany z algorytmami semantycznymi, które się dzieją w Google od ostatniego półtora roku. W zeszłym roku mieliśmy berta, który zmienia też dogmat NLP do NLU, czyli natural language understanding. To jest kolejny trend, który dziennikarze muszą wziąć pod uwagę, że ten algorytm po prostu będzie się rozwijał, będzie coraz mądrzejszy.

Dlatego też zastosowanie tego, o czym mówiliśmy, czyli semantyki kodu naszej strony, semantyki treści, śródtytułów, pytań, snippetów, tego korpusu języka polskiego i opisywania słowami powiązanymi, bliskimi i tak dalej – spowoduje to, że w tym trendzie my przetrwamy. Zobaczcie, na przestrzeni półtora roku były sytuacje, w których serwis przy algorytmie tej klasy tracił widoczność, mijały trzy miesiące i on wracał. Nie robiąc w międzyczasie nic.

Co było robione? Po prostu ta treść, powiązania, semantyka były przeliczane – znikało na jakiś czas i wracało. Jeżeli będziemy przygotowani na to i wyszukiwarce wskażemy bezpośrednio perfekcyjny, algorytmiczny sposób... Poetyka dziennikarska, to jest jedno, a algorytmy to jest matematyka już w tym momencie i zależności.

Drugie to, że w dłuższym terminie, jeżeli uznamy, że tak jest – a tak jest, a nie tylko wymyślam – to w dłuższym terminie te treści przetrwają. Jeżeli nie, to możemy się narazić na takie sytuacje jak na przykład miała kobieta.onet.pl. Było cudownie, nagle spadło i po jakimś czasie wróciło. A w tak zwanym międzyczasie wiele miesięcy nie ma ruchu.

[Karolina Matyska] Google też się uczy i trochę zmienia zdanie w międzyczasie.

[Łukasz Rogala] Jeżeli się testują, to my jesteśmy niestety w tym koszyku testowym i się nami po prostu przerzuca.

[Robert Niechciał] No właśnie, ale jeżeli o tym wiemy, w jakiś sposób jesteśmy w stanie się na to przygotować, albo chociaż odrobinę Google'owi podpowiedzieć i temu nowemu NLU, to to jest kierunek.

Najnowsze artykuły od Senuto

wprost na Twoją skrzynkę e-mail! Dołącz do subskrypcji już teraz.

Podziel się artykułem:

Share on facebook
Share on twitter
Share on linkedin
Komentarze
Przetestuj Senuto

Sprawdź, jak Senuto może rozwinąć Twój biznes.
Wypróbuj teraz przez 14 dni za darmo.

WIĘCEJ REFERENCJI

"Senuto to świetne uzupełnienie na rynku narzędzi SEO. Do tej pory nie było kompleksowego narzędzia do tworzenia zaawansowanych audytów, Senuto rozwiązuje ten problem."

Paweł Zinkiewicz, if.pl