Przyszłość, która nadejdzie jutro

Copy of attracting an audience (3)

14.06.2017 r. miałem przyjemność wystąpić na konferencji SEMKRK 6 (strona wydarzenia) z prezentacją „przyszłość, która nadejdzie jutro”. Opowiadałem o tym co w przyszłości będzie wpływać na wyniki wyszukiwania. Postanowiłem szerzej opisać temat dla tych, którzy po prezentacji czują niedosyt i dla tych, którzy nie mogli być w Krakowie (film z prezentacji oraz prezentacje znajdziecie na dole wpisu).

Sama koncepcja prezentacji powstała w oparciu o teorię, które nazywa się „Accelerating Returns” (pol. przyśpieszenie powrotu), którą stworzył Raymond Kurzweil. Wedle tej teorii ludzkość rozwija się co raz szybciej dzięki co raz większym możliwościom rozwoju. Aby zrozumieć tę teorię posłużmy się przykładem filmu „back to the future”.

Back-to-the-Future-Promo-Photo

Marty McFly, który przeniósł się z 1985 do 1955 dziwił się cenom wody, czy brakiem miłości do gitar elektrycznych. Gdyby akcję przenieść do 2015 roku i McFly przeniósłby się do 1985 (również 30 lat do tyłu) zastałby świat bez internetu, smartfonów, dronów i wielu innych rzeczy, które ludzkość w tym czasie wymyśliła. Jeśli wierzyć Kurzweilowi to pomiędzy 2015 a 2030 rozwiniemy się bardziej niż pomiędzy 1750 a 2015 (w 15 lat osiągniemy więcej niż przez ostatnie 275 lat). Tak duży rozwój będzie miał wpływ na każdą branżę, również branżę SEO. Myślę zatem, że to najlepsza pora na myślenie o tym co będzie dalej bo zmiany mogą nastąpić szybciej niż się nam wydaje. Wyznaczyłem 5 trendów, które moim zdaniem będą decydować o przyszłości wyników wyszukiwania.

#1 AI (Sztuczna inteligencja)

Na co dzień jesteśmy zalewani informacji o sztucznej inteligencji. Ma ona zastąpić ludzi w wielu branżach. Funkcjonuje ona już w życiu codziennym każdego z nas – wybiera muzykę, której słuchamy na spotify czy filmy, które oglądamy na netflixie. Jest używana również w wynikach wyszukiwania. Funkcjonuje w postaci algorytmu „Rank Brain”. Obecnie nie ma wielu informacji o tym co tak naprawdę robi rank brain, ale z dużą dozą pewności możemy domyślić się co będzie robił już w niedługim czasie.

Istnieje wiele klasyfikacji AI, jedną z nich jest następujący podział:

a) AI kontrolowana – to taki rodzaj sztucznej inteligencji, który ma do dyspozycji dane historyczne do analizy. Na tej podstawie ma dalej podejmować sam decyzję.

b) AI niekontrolowana – to taki rodzaj, który nie ma danych historycznych i wszystkie wnioski ma wyciągnąć sama.

Rank brain to rodzaj AI kontrolowanej – ma do dyspozycji wiele danych historycznych. Przykładów dobrych i złych praktyk w dziedzinie SEO – musi je tylko powielić. Jednakże dopiero wprowadzenie AI niekontrolowanej do wyników wyszukiwania mogłoby je odwrócić o 180 stopni. Obecnie mamy około 600 zmian w algorytmie rocznie, AI niekontrolowana w czasie rzeczywistym mogłaby tworzyć nowe czynniki algorytmiczne, moglibyśmy mieć 600 zmian na godzinę, nie na rok.

Przyjrzyjmy się temu w jaki sposób AI może działać w wynikach wyszukiwania.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_4_z_57_

  1. Mamy zbiór danych. Niech to będzie zbiór danych dwóch rodzajów linków
  2. Przez wiele lat za pomocą search quality team i disavow tool Google zbierał informację na temat dobrych i złych linków. Sztuczna inteligencja ma zatem pokaźną wiedzę na temat tego jak wyglądają złe i dobre linki
  3. Na bazie danych historycznych łatwo jej analizować kolejne linki i podejmować decyzję, które są złe a, które dobre – może zatem samodzielnie analizować profil linków określonej domeny i podjąć decyzję o nałożeniu kary lub nie. Co prawda do tej pory Google używa do tego algorytmu Pingwin, który nie jest napędzany sztuczną inteligencją, ale nie trudno się domyślić, że prędzej czy później będzie
  4. Mając zbiór dobrych i złych linków może również wyznaczać zupełnie nowe czynniki decydujące o tym czy link jest zły czy dobry. Inżynierowie Google nie będą zatem musieli określać takim algorytmom co decyduje o tym co jest złym linkiem a co dobrym – sztuczna inteligencja zrobi to samodzielnie

Nie do końca wiemy w jaki sposób działa sztuczna inteligencja Google, ale wiemy co potrafi na bazie tego co pokazują inne firmy. Na przykładzie sztucznej inteligencji Watson od IBM pokażę wam kilka rzeczy, które są już możliwe, a które w teorii może wykorzystać Google.

Rozpoznawanie emocji 

Sprawdź demo >> Rozpoznawanie intencji

Wystarczy, że wkleimy kawałek tekstu a IBM Watson rozpozna jakie emocje przekazane są w tym tekście.

Natural_Language_Understanding_Demo

Google mógłby na bazie twojego dzisiejszego nastroju sugerować Ci odpowiednie wyniki wyszukiwania. Jeśli określiłby, że jesteś dziś smutny mógłby nie serwować treści, które wywołują smutek.

Rozpoznawanie intencji

Sprawdź demo >> Rozpoznawanie intencji 

Na podstawie zapytania w języku naturalnym AI rozpozna o co nam chodziło.

Natural_Language_Classifier_Demo

Jak widać pytamy o to czy będzie dziś wietrznie, a Watson odpowiada, że chodzi nam o warunki pogodowe, a nie o temperaturę. Komunikacja z wyszukiwarką na poziomie języka naturalnego, a nie fraz kluczowych będzie w przyszłości bardzo ważna. Google nad semantyką pracuje już od dawna więc jego sztuczna inteligencja w tym zakresie potrafi już na pewno dużo.

Rozpoznawanie osobowości 

Sprawdź demo >> Rozpoznawanie osobowości

Na bazie 1200 słów tekstów Watson jest w stanie rozpoznać osobowość osoby, która go napisała. Zrobiłem test wklejając tekst przemówienia Martina Luthera Kinga „I had a dream”.

Personality_Insights

Myślę, że poradziła sobie świetnie z rozpoznaniem osobowości Dr. Kinga. Mamy tam między innymi następujące wnioski:

  • Jesteś empatyczny
  • Lubisz nowe idee
  • Twoje decyzje kierowane są dobrem organizacji a nie twoim osobistym szczęściem
  • Nie poddajesz się wpływom

Wszystko to prowadzi do jednego wniosku: będziemy mieli do czynienia z personalizacją na nieco innym poziomie niż do tej pory. Google personalizuje wyniki wyszukiwania od 2009 roku, ale mam tu na myśli personalizację na nieco innym poziomie, poziomie pojedynczego użytkownika.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_16_z_57_

Tak naprawdę każdy z nas może mieć swojego indywidualnego Google i wyniki wyszukiwania dopasowane do obecnych emocji czy osobowości jaką mamy.

Wielowymiarowość algorytmu 

Obecnie specjaliści SEO mają co raz większe problemy z analizą przyczyn spadków czy wzrostów witryn w wynikach wyszukiwania. Kiedy w 2013 roku do wyników wyszukiwania wchodził algorytm pingwin zmiany były jasne. Niezależnie od tego czy prowadziłeś stronę o kredytach czy o medycynie to podejmowania określonych działań prowadziło do tego samego. Wertykalne podejście do tego typu analiz nie ma już sensu, algorytm stał się wielowymiarowy. W algorytmie wyszukiwarki mamy kilkaset czynników, które decydują o miejscu w wynikach wyszukiwania. Obecnie sztuczna inteligencja może losować unikalny zestaw czynników dla każdego zapytania czy kategorii zapytań. W jednej branży najważniejszym czynnikiem może być znacznik title a w innej nagłówek H1.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_11_z_57_

Jeśli zatem w twojej branży wszyscy używają SWL’a to jego używanie nie powinno spowodować kary, jeśli jednak używasz SWL’a w branży gdzie nikt tego nie robi to sztuczna inteligencja bardzo szybko będzie w stanie wychwycić odchylenie od normy i nałożyć karę.

Google na konferencji SMX w 2016 sam przyznał, że nie do końca wie w jaki sposób działa rank brain. Paul Haahr powiedział „We don’t fully understand RankBrain”. Nie świadczy to bynajmniej o tym, że Google nie wie co robi. Potwierdza to fakt, że RankBrain sam dobiera sobie zestaw sygnałów wpływających na ranking w zależności od branży przez co algorytm stał się wielowymiarowy i podejście wertykalne straciło sens. My, jako branża SEO możemy przewidywać jak zachowa się sztuczna inteligencja w zależności od sytuacji w jakiej ją postawimy. Powstają już takie narzędzia jak Market Brew, które używając sztucznej inteligencji mogą przewidzieć jak zachowa się sztuczna inteligencja Google w reakcji na konkretne zmiany na stronie czy w środowisku zewnętrznym.

#2 Voice search

Zapewne każdy zna takie urządzenia jak Amazon Echo, Google home czy HomePod (który ostatnio pokazał Apple).

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_21_z_57_

Myślę, że dopiero ich rozpowszechnienie będzie krokiem milowym w wyszukiwaniu głosowym. Obecnie o wyszukiwaniu głosowym mówi się niewiele, ale nie jest to temat niszowy. W USA 41% dorosłych i 54% nastolatków korzysta z niego każdego dnia. Google w 2014 wypuścił ciekawy raport na ten temat: Sprawdź. 

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_22_z_57_

Podstawową kwestią w wyszukiwaniu głosowym jest sposób komunikacji z wyszukiwarką. Głosowo wyszukujemy inaczej niż w sposób standardowy, posługujemy się językiem naturalnym.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_24_z_57_

W związku ze zmianą sposobu wyszukiwania powinien zmienić się również sposób optymalizacji pod kątem tego typu zapytań. Mam w tym zakresie kilka rekomendacji.

Odpowiadaj na pytania 

Jak widzisz na obrazku powyżej posługując się językiem naturalnym zadajemy więcej pytań aniżeli wyszukując tekstowo. W związku z tym powinieneś optymalizować swoje treści pod kątem pytań. Zapytań pytających w Polskich wynikach wyszukiwania jest już bardzo dużo.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_26_z_57_

Fraz, które zawierają pytania „jak”, „kto”, „kiedy” etc. jest w chwili obecnej ponad 1,5 miliona. Stanowi to 7% wszystkich zapytań wprowadzanych do wyszukiwarki, ale należy nadmienić, że w stosunku do 2008 liczba takich zapytań wzrosła 35 krotnie, a w stosunku do 2017 wzrosła 7 krotnie. 

Fraz kluczowych zawierających pytania możesz szukać za pomocą narzędzia „generator pytań” w Senuto: Generator pytań.

Używaj danych strukturalnych 

Dane strukturalne dają wyszukiwarce kontekst. Jeśli użytkownik pyta o „zupę pomidorową” to dane strukturalne podpowiedzą wyszukiwarce czy jesteś restauracją, która taką zupę serwuje czy stroną z przepisem na zupę pomidorową.

Przydatne linki:

Schema.org – opis wdrożenia danych strukturalnych.

Marker danych w search consoli – sposób na drożenie danych strukturalnych bez zmian w kodzie.

Narzędzie do testowania danych strukturalnych – sprawdź czy Google poprawnie odczytuje wdrożone przez Ciebie dane strukturalne

Twórz sekcje FAQ

W związku ze wzrostem zapytań pytających powinieneś rozważyć tworzenie sekcji FAQ z pytaniami i odpowiedziami.

#3 SEO&UX

W przyszłości SEO samo w sobie nie będzie istnieć. Będzie musiało być częścią większego planu marketingowego. Od dawna łączy się je z wieloma innymi dziedzinami marketingu.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_32_z_57_

Łączono je z Content Marketingiem, działaniami PR, działaniami Social Media. Nowym połączeniem staje się UX (user experience). Połączenie to nie odegra na pewno mniejszej roli niż pozostałe.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_33_z_57_

W branży SEO od wielu lat mówi się o UX jako czynniku algorytmicznym i rzeczywiście czynniki takie jak szybkość ładowania strony czy dostosowanie do urządzeń mobilnych odgrywają co raz większą role, ale są to czynniki obiektywne. Niebawem Google będzie w stanie wprowadzać czynniki subiektywne. Ma on wiele sposobów na badanie tego w jakim stopniu strona jest przyjazna dla użytkownika.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_34_z_57_

Mają androida, który ma 64% udziału w rynku smartfonów. Mają chrome, który ma 60% udziału w rynku przeglądarek. Mają też Google Analytics, którego używa około 60 milionów stron internetowych. Mają też w końcu sztuczną inteligencję, która na bazie danych zebranych przez 3 poprzednie narzędzia może tworzyć zupełnie nowe czynniki UX wpływające na SEO. W związku z tym powstają i będą powstawać nowe metryki takie jak:

  • Głębokość wizyt – wyszukiwarka zmierzy ile podstron po wejściu na stronę przeglądają użytkownicy (sprawdź parametr strony/sesje w Google Analytics)
  • % powrotów do wyników wyszukiwania – Google wie jak często użytkownicy cofają się do wyników wyszukiwania po kliknięciu w określony wynik
  • CTR w wynikach wyszukiwania – jeśli twój wynik pomimo niższej pozycji w wynikach wyszukiwania osiąga wyższy CTR to twoja pozycja może wzrosnąć. Google również używa tu sztucznej inteligencji do predykcji współczynnika klikalności. Używa go również do estymowania CTR’u dla reklam AdWords (zobacz case study Rand Fishkina na temat wpływu CTR’u na pozycję: tu)
  • Czas spędzony na stronie
  • Przeładowanie reklamami (Google mówi o tym od 2016 roku: zobacz)

W związku z takimi zmianami możemy mówić o zjawisku „2 alghoritm world” o, którym mówił Rand Fishkin. Przyjdzie nam optymalizować pod 2 typy algorytmów.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_37_z_57_

Do tej pory w optymalizacji on-site skupialiśmy się na optymalizacji po input – wszystkie działania służyły temu, żeby zoptymalizować stronę pod kątem frazy kluczowej, którą wpisuje użytkownik. Nowy on-site to będzie optymalizacja pod output czyli moment, w którym użytkownik kliknął już w wynik wyszukiwania. Optymalizować będziemy tu czynniki UX, które będą stymulowały nowe metryki, które wymieniłem wyżej. Audyty SEO powinniśmy zatem łączyć już z audytami UX.

Warto tu również wspomnieć o tym, że przy wykorzystaniu sztucznej inteligencji Google może tworzyć zupełnie nowe czynniki UX, które będą miały wpływ na SEO. Jeśli sztuczna inteligencja uzna, że w przypadku stron medycznych najlepiej sprawdza się układ gdzie choroba opisana jest w formie tabelarycznej to może wprowadzić to jako czynnik rankujący dla tego typu stron. Oczywiście to jeszcze przyszłość, ale nie tak odległa jak może się wydawać.

#4 Informacje 0/1

Jeśli twoja strona zawiera informację 0/1 – takie na, które da się odpowiedzieć w sposób bezpośredni to niebawem możesz mieć problemy z utrzymaniem ruchu z wyszukiwarki. Musisz zrozumieć, że Google nie ma żadnego interesu w tym żeby odsyłać użytkownika do twojej strony internetowej.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_40_z_57_

Eric Schmidt już w 2014 zaznaczał, że nie powinniśmy wymagać od wyszukiwarki ruchu (tu pełen wpis) bo też jeśli wyszukiwarka może to da odpowiedź użytkownikowi bezpośrednio w wynikach wyszukiwania. W innym przypadku bierze odpowiedzialność za to gdzie odsyła użytkownika. Jeśli odeśle użytkownika na stronę niezoptymalizowaną pod kątem UX to użytkownik w pewnym stopniu ocenia też wyszukiwarkę, a należy pamiętać, że Google nie działa w próżni. To, że osiągnął absolutny monopol w Polsce nie znaczy, że może spocząć na laurach. Rozwijają oni od dawna grafy wiedzy, które nieco odmieniają wyniki wyszukiwania (tu nasz wpis na temat obecnych danych grafowych w wynikach wyszukiwania: czytaj). Wyniki wyszukiwania mogą wyglądać między innymi tak:

ile_lat_ma_maryla_rodowicz_-_Szukaj_w_Google

Użytkownicy otrzymując taki wynik wyszukiwania nie mają potrzeby wychodzić z wyszukiwarki. Jest to ważne zwłaszcza w kontekście wyszukiwania głosowego – interfejs głosowy wyklucza poruszanie się po stronach internetowych. Obecnie ponad 50% wyników wyszukiwania zawiera panele wiedzy w takiej czy innej formie. 

Panele wiedzy to też niekiedy szansa. Istnieją takie panele jak direct answers (tu nasz wpis o tym czym jest direct answers i o tym jak wygląda sytuacja w Polsce). W skrócie direct answers to odpowiedź na określone pytanie w wynikach wyszukiwania zaciągnięta z zewnętrznych stron internetowych. W praktyce wygląda to tak:

Jak_zainstalować_winsows_-_Szukaj_w_Google

Obecnie w Polsce taki snippet ma 239 tysięcy fraz, przy czym rok temu było to tylko 120 tysięcy – liczba takich wyników rośnie w czasie. 

#5 Semantyczne SEO

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_50_z_57_

Google w sierpniu 2013 wprowadził algorytm o nazwie Koliber. Nie jest to aktualizacja algorytmu jak Panda czy Pingwin. Jest to zupełna zmiana algorytmu a Panga i Pingwin są jedynie jego częścią. Był to wielki krok Google w kierunku semantyki. Chodzi o rozpoznawanie intencji i kontekstu danego zapytania. Google chce wiedzieć czy wpisując do wyszukiwarki Panda miałeś na myśli zwierze czy program antywirusowy. W związku ze zmianą algorytmu zmienić powinniśmy również podejście do tworzenia treści.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_53_z_57_

Obecnie należy skupiać się na intencjach i kontekście zapytania, nie na słowach kluczowych.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_54_z_57_

Mając na uwadze intencje użytkownika powinniśmy zbadać otoczenie. Jeśli w wynikach wyszukiwania na hasło „laptopy do 2500 zł” Google pokazuje zazwyczaj wpisy blogowe z rankingiem takich laptopów to raczej nie przebijemy się tam ze stroną sklepu z filtrem ceny na kategorii „laptopy”. Jeśli chodzi o kontekst powinniśmy zadbać o kilka elementów:

  • Skupić się na tematach, nie frazach – mowa tu o topical authority << czytaj nasz wpis. Poniżej jest też nagranie z mojego wystąpienia w Katowicach na Festiwalu SEO (19.05.2017 r.) gdzie o tym mówiłem
  • Kontekstowe linkowanie wewnętrzne – jeśli użytkownik wszedł do nas z frazy „cukrzyca” to nie wyświetlajmy w proponowanych treściach informacji o „Beacie Szydło” eg. dziennik.pl – sugerujmy mu treści, które utrzymają go w kontekście cukrzycy
  • Dane strukturalne – one również dają wyszukiwarce większą wiedzę na temat treści (przykład zupy pomidorowej wyżej)

Nagranie z wystąpienia na Festiwalu SEO w Katowicach

Naczynia połączone

Nie wiem czy to zauważyłeś, ale wszystkie wyżej wymienione elementy się ze sobą łączą.

SEMKRK_6_-_Damian_Sałkowski_pdf__strona_55_z_57_

Myślę, że przyszłość wyników wyszukiwania jest taka, że w centralnym punkcie będzie sztuczna inteligencja, która napędzać będzie wszystko. Poza tym:

  • Wyszukiwanie głosowe bardzo potrzebuje mocnej semantyki – Google musi rozumieć język naturalny i kontekst w jakim pytasz, aby ta technologia miała sens
  • Mobile i voice potrzebuje UX – tylko dobrze zoptymalizowane pod kątem UX strony mogą się dobrze sprawdzić w mobile i wyszukiwaniu głosowym
  • Voice potrzebuje grafów – grafy wiedzy pozwolą asystentom takim jak Google home komunikować się z użytkownikiem tylko za pomocą interfejsu głosowego co wydaje się konieczne

Podsumowanie

W Krakowie dostałem pytanie „Jaka jest przyszłość SEO?” oraz „Czy SEO kiedyś będzie dead?”. Myślę, że w świecie gdzie rozwój jest tak szybki, a będzie się jeszcze rozpędzał nie możemy się bać. Musimy być po prostu przygotowani na zmiany. SEO będzie stawać się co raz bardziej techniczne co na pewno skonsoliduje rynek (znikną podmioty świadczące usługi niskiej jakości). Możemy spotkać się też z sytuacją gdzie nie będzie miało ono sensu dla małych firm – wchodząc w temat sztucznej inteligencji nie wyobrażam sobie hydraulika, którego będzie stać na taką złożoną usługę, ale duże podmioty jeszcze przez wiele lat działania SEO będą robić bo potencjalny ROI jest obecnie bardzo wysoki i nawet jego obniżenie nie spowoduje, że przestanie być to usługa opłacalna.

Nagranie wystąpienia

Prezentacja z wystąpienia

 

Dołącz do ponad 4000 odbiorców naszych wiadomości.

Dołącz do ponad 4000 odbiorców naszych wiadomości.

Nie wysyłamy SPAMU! Tylko ciekawe i przydatne materiały, raz w tygodniu na twoją skrzynkę.

Właśnie wysłaliśmy na twój e-mail wiadomość. Potwierdź subskrypcję!

Damian Sałkowski
Damian Sałkowski

Zarządza SENUTO, aplikacją do tworzenia precyzyjnych audytów SEO. Mistrz Polski SEO A.D. 2013. Od kilku lat realizuje projekty z zakresu marketingu internetowego dla dużych (PZU, Microsoft, Hochland, Zumi.pl, Sage czy IKEA) i małych przedsiębiorstw, także na rynkach zagranicznych.

  • Tomek Rudzki

    Ciekawy art, rzadko tego typu tematyka poruszana jest na polskim rynku.

    Delikatne niuanse:
    (..) Potwierdza to fakt, że RankBrain sam losuje sobie zestaw sygnałów wpływających na ranking w zależności od branży”
    użyłbym raczej słowa „dobiera”, myslę że do losowania, to sztucznej inteligencji jest daleko :)

    „Google na konferencji SMX w 2016 sam przyznał, że nie do końca wie w jaki sposób działa rank brain. Paul Haahr powiedział „We don’t fully understand RankBrain”. Nie świadczy to bynajmniej o tym, że Google nie wie co robi. ” – używają machine learningu z wieloma warstwami i później ciężko to odtworzyć. Gary mówił kiedyś, że czasem to jest nawet całkowicie niemożliwe. Próbują to estymować za pomocą mniejszej ilości warstw, ale nadal to jest tylko estymacja.

    No i ” AI kontrolowana ” i „AI niekontrolowana” – miałes na myśli ML supervised i unsupervised? :)

    • salek7

      No i ” AI kontrolowana ” i „AI niekontrolowana” – miałes na myśli ML supervised i unsupervised? :)

      Tak. :)

      użyłbym raczej słowa „dobiera”, myslę że do losowania, to sztucznej inteligencji jest daleko :)

      Dzięki, poprawione.

SEO

Przyszłość, która nadejdzie jutro

napisane przez Damian Sałkowski W tyle przeczytasz: 13 min
2