10 lipca 2022 104:37 Odcinek 070
Jak odnaleźć się w świecie cookieless? – Witold Wrodarczyk
Jak legalnie śledzić poczynania użytkowników w sklepie internetowym? Cóż, okazuje się, że sprawa wcale nie jest taka prosta, a zaczyna się już od odpowiedniego zaprojektowania okienka informującego o polityce cookies. Czy w nadchodzącej erze, którą nazywa się już “cookieless”, będziemy mogli wyciągać wnioski na podstawie analizy zachowań naszych klientów?
Oczywiście tak, chociaż trzeba inaczej skonfigurować narzędzia analityczne i przygotować się na to, że będziemy dysponować trochę innymi danymi, niż dotychczas. Jak się za to zabrać i jak zrobić to dobrze? Posłuchaj wskazówek Witolda Wrodarczyka.
Listen to „070 – Jak odnaleźć się w świecie cookieless? – Witold Wrodarczyk” on Spreaker.Dodatkowe materiały
Jeśli zainteresowała Cię nasza rozmowa, sprawdź również:
- Książkę Osaczeni przez liczby. O algorytmach, które kontrolują nasze życie. Od Facebooka i Googla po fake newsy i bańki filtrujące o tym, jak jesteśmy analizowani w Internecie
https://lubimyczytac.pl/ksiazka/4893058/osaczeni-przez-liczby-o-algorytmach-ktore-kontroluja-nasze-zycie-od-facebooka-i-googla-po-fake-ne - Playlistę na YouTube o Privacy Sandbox
https://www.youtube.com/playlist?list=PL1RuStSUBAY4N8jPKzYAVGJqoogh2jSTS - Artykuł Witolda o modelowaniu atrybucji
https://adequate.digital/wp-content/uploads/2017/05/W-poszukiwaniu-idealnego-modelu-atrybucji.pdf - Odcinek Google Analytics 4 – co warto wiedzieć? – Maciej Lewiński o konfiguracji najnowszej wersji Google Analytics
https://marekkich.pl/sztuka-ecommerce/067-google-analytics-4-co-warto-wiedziec-maciej-lewinski/
Transkrypcja odcinka
- Ostatnie zmiany w regulacjach dotyczących prywatności?
- Jak powinna wyglądać zgoda na pliki cookies?
- Wpływ firm technologicznych na zmiany związane z prywatnością użytkowników w sieci
- Jaka jest przyszłość plików cookies i analityki internetowej?
- Jak wdrożyć Google Analytics z poszanowaniem prawa użytkowników do prywatności?
- Jakie zagrożenia czekają marketerów w związku z coraz większą anonimizacją użytkowników internetu?
- Co przynosi atrybucja oparta o dane?
Odkąd w Polsce pojawiły się regulacje RODO, a następnie na świecie wybuchła gruba afera powiązana z wyciekami danych na Facebooku i manipulacjami Cambridge Analytica, kwestia prywatności stała się dość gorącym tematem.
E-Commerce drży, bo mówi się, że nadchodzą wielkie zmiany w śledzeniu użytkowników i mierzeniu ich działań na stronach, że to właściwie koniec precyzyjnej analityki, bo użytkownicy staną się zupełnie anonimowi. Pojawiają się nawet głosy rozczarowanych, którzy twierdzą, że obiecano im prawdziwe El Dorado big data, a tu proszę – ktoś klika: „Nie zgadzam się” w okienku o polityce cookies, no i nara. Jak to zwykle bywa w okresie zmian, gdy do gry wchodzą trzy siostry P, czyli Plotka, Przesada i Pogłoska, to ta czwarta, czyli Prawda, jest gdzieś pośrodku.
Dzisiaj z moim gościem poszukamy odpowiedzi na pytanie, jak będzie wyglądała era cookieless z punktu widzenia e-Commerce. Witold Wrodardczyk, bo o nim właśnie mowa, to założyciel i CEO Adequate. Jest certyfikowanym specjalistą Google Ads, Analytics i Facebooka, jest też doradcą inwestycyjnym, no i ekspertem w dziedzinie optymalizacji kampanii marketingowych, pomiaru skuteczności i modelowania atrybucji. Jeżeli chodzi o temat naszego dzisiejszego odcinka, czyli cookies, to jest też zdecydowanie pierwszą osobą, która przychodzi mi do głowy. Tyle o moim gościu, tyle tytułem wstępu, zapraszam do naszej rozmowy.
Cześć, Witoldzie!
Cześć, Marku!
Dla tych słuchaczy, którzy nie mieli okazji cię poznać, czy mógłbyś w kilku zdaniach opowiedzieć o tobie i o tym, czym się zajmujesz na co dzień?
W zasadzie już od prawie 20 lat zajmuję się marketingiem online. Od kilkunastu jako założyciel i dyrektor operacyjny agencji Adequate, w której pomagamy naszym klientom zwiększać sprzedaż i budować marki w Internecie. Przy okazji też zajmujemy się zbieraniem i analizą danych, które pomagają te kampanie optymalizować.
W ramach mojej działalności miałem też przywilej, możliwość prowadzenia badań. Były to badania między innymi z zakresu optymalizacji profit-driven, czyli kwestii kosztów krańcowych i elastyczności w kampaniach marketingowych tak, żeby to przełożyć na bardziej powszechnie używane pojęcia. Chodzi tutaj o znajdowanie tego punktu, w którym kampania przechodzi z momentu niedoinwestowania w przeinwestowanie. To też się wiąże z optymalizacją portfolio, która też może być, na przykład, znana tym, którzy korzystają z kampanii Google Ads. Tam też mamy strategię portfolio. No i znowu, żeby to tak w powszechnym pojęciu wytłumaczyć: jeżeli prowadzicie kampanię i każda z nich ma taki sam cel i realizuje taki sam cel konwersji, to one niekoniecznie są optymalne. Być może lepszy efekt, jako całość, te kampanie by osiągnęły, gdyby dostosować te cele do bieżącej elastyczności. Tak że to jest taki fine tuning kampanii.
Prowadziłem też badania nad modelowaniem atrybucji, a w ostatnim czasie swoją uwagę skupiłem na zagadnieniach prywatności w sieci, zmian, które zachodzą w tym zakresie, jeśli chodzi o technologię, no i tym wszystkim, co się wiąże z tą nadchodzącą erą privacy i cookieless.
Pamiętam jeszcze z twojej aktywności w social mediach, że rzeczywiście jeszcze jakiś czas temu byłeś bardzo zaangażowany, jeżeli chodzi o modelowanie atrybucji. Dużo tych materiałów było. Ostatnio jest ich dużo więcej o prywatności. Może opowiesz mi, skąd w ogóle ta zajawka? Czemu nagle ta prywatność stała się twoim oczkiem w głowie?
Większość rzeczy, które gdzieś publikuję i o których mówię, jeśli mam możliwość i czas, gdzieś wystąpienia na konferencji czy tak jak u ciebie… Generalnie nie jestem profesjonalnym performerem czy też szkoleniowcem, prowadzę agencję. Natomiast ogólnie staram się opowiadać o takich rzeczach, które sprawiały mi problem, których rozwiązań nie mogłem znaleźć, i które rozwiązania udało mi się znaleźć.
Tak było też z atrybucją, która była swego czasu dosyć mocnym, modnym i nośnym tematem. Rzeczywiście, miałem potrzebę, żeby to dobrze zrozumieć. Pojawiało się tam wiele terminów, często support nie potrafił ich rozwiązać. To był więc przez długi czas fragment tej dziedziny marketingu online, na którym ja się skupiałem, no i później, kiedy już doszedłem do pewnych wniosków, zacząłem to publikować. W pewnym momencie doszliśmy do takiego momentu, że ten temat został w jakimś stopniu wyczerpany.
Przez jakiś czas prowadziłem zresztą szkolenie z modelowania atrybucji, które przestałem prowadzić między innymi z tego powodu, że było ono oparte o Universal Analytics, a jak wiemy, wchodzi teraz Google Analytics 4, w którym jeszcze tego modelowania atrybucji (przynajmniej w takim zakresie, żeby było o czym opowiadać na szkoleniach, a nie coś, co można po prostu komuś wysłać – linku do helpu), to nie ma. Dodatkowo nad atrybucją i zbieraniem danych zaczęły zbierać się takie czarne chmury. Mówiono o tym, że ciasteczka znikną, i ten temat w związku z tym mnie zainteresował. W ten sposób to tak trochę przeszło. W zasadzie wiąże się to jedno z drugim.
No właśnie – mówi się o tym, że ciasteczka znikną, coraz więcej mówi się o prywatności. Parę lat temu wchodziło to szczęsne – nieszczęsne (to pewnie zależy, kto kogo zapytasz) RODO, firmy się przygotowały – niektóre lepiej, niektóre gorzej. Mam wrażenie, że dla wielu właścicieli stron internetowych skończyło się po prostu na informacji, że mamy cookie na stronie, i możliwością kliknięcia w „OK”, które często nawet nic nie zmienia. W międzyczasie tę prywatność też, mam wrażenie, podgrzała afera Facebooka i Cambridge Analytica, gdzie te dane niekoniecznie służyły temu, co trzeba.
Temat zrobił się gorący, bo rzeczywiście też planowane są zmiany, mówi się o przyszłości bez cookie. Zacznijmy może od tego, że zapytam cię, co się właściwie ostatnio zmieniło w regulacjach dotyczących prywatności, że ten temat aż tak wypłynął?
W zasadzie, jeśli chodzi o regulacje, to tutaj nie zaszła jakaś większa zmiana. Tak naprawdę cały czas obowiązuje RODO, które jest, myślę, w branży dobrze znane, bo jego wprowadzeniu towarzyszyła taka dosyć… nie chcę powiedzieć „kampania”, ale jednak mówiło się o tym bardzo dużo również w kontekście bardzo wysokich kar, które w związku z ochroną danych zostały wprowadzone. To były rzeczywiście trochę szokujące kary, no i na branże padł blady strach, co to będzie. Tak że więc RODO dobrze znamy.
W tym zakresie obowiązuje RODO i ePrivacy. To jest regulacja, która pochodzi z roku 2002. To również regulacja europejska i ona w 2009 roku rzeczywiście spowodowała wprowadzenie na nasze strony paska cookie, który, jak zresztą zauważyłeś, tak naprawdę nie robił nic. To były dwie linijki kodu, wklejało się to na stronę, wyskakiwał bannerek, można tam było kliknąć „OK” lub krzyżyk, zresztą cokolwiek. Można było go też zignorować, jeśli stronę dało się przeglądać, ale nic nie zmieniało, ponieważ strona cały czas działała tak, jak działała.
Pod koniec 2019 roku, jesienią, Trybunał Sprawiedliwości Unii Europejskiej wydał wyrok w sprawie firmy Planet49. Został on później uogólniony w wytycznych Europejskiej Rady Ochrony Danych i z grubsza stwierdzał, że pasek cookie, który działa w ten sposób, że informuje nas o tym, że działają cookie, możesz sobie poczytać w polityce prywatności, jak usunąć te ciasteczka, jest niezgodny z zasadami ePrivacy, i RODO dlatego, że przede wszystkim nie daje możliwości użytkownikowi kontroli nad tymi ciasteczkami. Ta informacja pojawia się już po fakcie, kiedy wszystkie kody śledzące są już dawno uruchomione, więc chociażby z tego powodu takie rozwiązanie jest nieprawidłowe.
Poza tym generalnie przyjmuje się na gruncie RODO, że wycofanie zgody na przetwarzanie danych powinno być równie łatwe, jak jej udzielenie, a na pewno nie może być tak, że tę zgodę udziela się bardzo łatwo, a żeby ją wycofać, to piętrzy się przed nami trudności. Uznano więc, że to nie może być tak, że my każemy użytkownikowi najwyżej później skasować te ciasteczka. Tak, jak powiedziałem, dzieje się to po fakcie. Stwierdzono więc, że obowiązuje tutaj zasada opt in, czyli że najpierw zgoda, a dopiero potem jakiekolwiek przetwarzanie danych, stosowanie kodów śledzących i plików cookie. To w praktyce oznacza, że pasek cookie, którym wcześniej były, jak już wcześniej powiedziałem, dwie linijki kodu, i który wyświetlał nam po prostu bannerek do zamknięcia, powinny zostać zastąpione systemem, który realnie zarządza tymi zgodami, czyli zbiera zgodę i później, w zależności od tego, na co my się zgodziliśmy, odpowiednio uruchamia te kody śledzące.
Pozwolisz, że dam też taki szczegół właśnie, co on powinien zawierać, tak, żebyśmy wiedzieli. Musi być więc zgoda opt-in, a także zgoda granularna, dlatego że wyobraź sobie, że ty teoretycznie jako bardzo świadomy użytkownik możesz powiedzieć: Ja jestem bardzo OK z tym, że strona się personalizuje, tak że wchodzę na Zalando, później już dostaję modę męską i (nie wiem, strzelam) sportową albo dla golfistów, bo Zalando już mnie zna i to jest fajne, ale nie chcę być jednocześnie zmuszany do tego, żeby dawać zgodę marketingową. Stąd to zarządzanie zgodami musi dawać użytkownikowi wybór, w jakim zakresie na to przetwarzanie danych, stosowanie ciasteczek czy podobnych technologii użytkownik wyraża zgodę. Trzecia rzecz: musi być możliwość wycofania i to nie przez czyszczenie ciasteczek, tylko właśnie, żeby znowu dało się te suwaczki pozmieniać. Musi być też system ewidencji, że gdyby przyszła kontrola, to żebyśmy mogli pokazać, że proszę bardzo, my te zgody zbieramy.
Tak jak powiedziałem, był wyrok pierwszy w 2019 roku, w 2020 Europejska Rada Ochrony Danych (nie chciałbym tutaj użyć jakiegoś złego terminu prawniczego, to chyba nie jest regulator, tylko właśnie takie gremium, które zajmuje się interpretacją przepisów w zakresie ochrony danych i wytycznymi dla krajowych regulatorów) nakazała nam w Unii Europejskiej właśnie zmianę tego sposobu zbierania zgód.
W Polsce to troszkę trwało, zanim wszyscy przekonali się, że to jest potrzebne. „Wszyscy” to może przesadziłem, bo myślę, że jednak cały czas tej wiedzy nie ma. Zresztą co tu dużo mówić? Na stronie gov.pl Kancelarii Prezesa Rady Ministrów cały czas mamy taki właśnie pasek cookie. Podobnie jest na stronie senatu, gdzie mamy zarówno Analytics, Hotjar. Generalnie nie jest do końca tak, jak powinno.
Prawnicy przez jakiś czas nie mieli pewności, ponieważ była pewna interpretacja prawa telekomunikacyjnego, która mówiła, że można takiej zgody dokonać przez ustawienia przeglądarki, ale pod koniec roku 2021 te wątpliwości się rozwiały, ponieważ Urząd Ochrony Danych Osobowych nałożył pierwszą karę za zły pasek cookie. To była na razie kara upomnienia. To przewinienie jest wciąż dosyć powszechne również na stronach administracji rządowej. Trudno więc by było karać za to kogoś finansowo, ale powiedzmy, że już od tego momentu również wśród prawników i inspektorów danych osobowych ten pogląd, że musimy mieć consent management, stał się powszechny.
Tutaj wchodzimy trochę w obszar prawny. W ogóle muszę dać takie zastrzeżenie: ja nie jestem prawnikiem z wykształcenia. Zresztą, nawet gdybym był, to pamiętajmy, że prawo to jest taka dziedzina, w której kwestia „to zależy” jest chyba jeszcze bardziej, niż w marketingu. Pamiętajmy więc, że cokolwiek ja dzisiaj opowiem o kwestiach prawnych, to proszę traktować wyłącznie informacyjnie i zresztą zawsze każdą kwestię należy raczej konsultować ze swoim prawnikiem, niż po prostu polegać na jakiejś ogólnej opinii, ponieważ w prawie bywa wiele niuansów, które mogą zmienić niemalże wszystko.
Czy musimy mieć bardzo dużo tych zgód? Tu nie chodzi o to, żeby było ich dużo i nawet niedawno, nie wiem, czy słyszałeś, sąd bodajże w Brukseli unieważnił taki system zbierania zgód przez IAB. To taki system przeznaczony dla wydawców. Przeciętny e-Commerce nie będzie miał z nim do czynienia. To system dla wydawców, którzy sami de facto sprzedają dane użytkowników, którzy do nich przychodzą, czy w formie emitowania reklamy opartej o zainteresowania, czy też rzeczywiście sprzedawania danych audience’owych.
Jednym z zarzutów przeciwko temu bannerowi, było to, że tych zgód jest tak dużo, to jest tak skomplikowane, że nie daje użytkownikowi realnej możliwości wyboru. Generalnie to musi wyglądać w ten sposób, że kiedy wchodzimy na stronę, ona musi nam powiedzieć: „Słuchaj, będziemy zbierać o tobie informacje w postaci plików cookie lub podobnych technologii. Czy się zgadzasz, czy nie?” i dać możliwość również szczegółowego ustawienia preferencji.
Powiedziałbym, że taki modelowy banner to jest właśnie zgoda, jej brak i ustawienia. Skoro już o tym mówimy, to w niektórych krajach wręcz wprost zostało powiedziane, że na tym pierwszym bannerze musi być: „Zgadzam się” i „Nie zgadzam się”. W Polsce ten temat jeszcze nie jest tak bezpośrednio interpretowany. Znowu, to jest na gruncie tego podejścia, że odmowa powinna być równie łatwa jak zgoda, no ale powiedzmy, że w Polsce, myślę, wielu prawników powie: No tam, jedno kliknięcie więcej to nie jest jeszcze jakieś straszne piętrzenie trudności. Czasami więc możemy mieć też taki banner, na którym będzie: „Zgoda” i „Ustaw swoje preferencje”.
Większość ludzi zresztą albo się zgadza, albo już nie – to też mogę powiedzieć z tych statystyk, które mamy. Widzimy, że tak naprawdę te preferencje mało kogo interesują, ale tak jak powiedziałem: teoretycznie tych zaawansowanych użytkowników, najbardziej świadomych mogłaby interesować właśnie taka granularna zgoda, więc przyjmuje się, że możliwość zrobienia bardziej szczegółowych ustawień i wyrażenia zgody na różnego rodzaju funkcje też w takim bannerze musi się znajdować.
Pachnie to trochę jak piekło dla marketerów, bo brzmi, jakbyśmy mieli stracić znaczną część danych. Wyobrażam sobie, że jak mogę i nie muszę, to wielu ludzi stwierdzi, że jeśli nie czują korzyści, to jednak nie. Co dalej?
Oczywiście, to się wiąże z utratą danych. Co do tego nie ma żadnych wątpliwości, bo wystarczy, że chociażby jedna osoba by się nie zgodziła, to te dane będziemy tracić. Na razie z tego, co ja obserwuję w tych wdrożeniach, które znam, ten procent utraty jest stosunkowo niewielki. Są takie strony e-Commerce, na których poziom odmów jest poniżej 2%, są takie, na których ten poziom jest do kilku procent. Na stronie naszej agencji to było kilkanaście procent, ale to też nie dziwi, bo potencjalnie to są użytkownicy, którzy są trochę bardziej świadomi i odmawiają.
Znacznie większy, rzeczywiście procent odmów jest wtedy, kiedy użytkownik ma jednak tę możliwość odmowy na tym pierwszym ekranie. Jeśli ta interpretacja, że odmowa musi być na pierwszym ekranie, stanie się, że tak powiem, już powszechna (a wydaje mi się, że tak jednak się stanie), to wtedy ten procent odmowy będzie większy. Powiedziałbym, że to przeciętnie dwukrotnie zwiększa tę liczbę odmów, co nie zmienia faktu, że cały czas większość się zgadza.
To nie jest poparte żadnymi danymi czy badaniami, to moja opinia, ale myślę, że stoją za tym 2 przyczyny. Sądzę, że część ludzi po prostu uważa, że jeżeli kliknie „Nie zgadzam się”, to nie będą mieli dostępu do strony. Zresztą znowu, z takich smaczków, jest strona Agencji Bezpieczeństwa Wewnętrznego, która właśnie w ten sposób się komunikuje. Ona pyta o zgodę na ciasteczka i mówisz „OK”, a jeśli nie, to w tym momencie skrypt próbuje zamknąć stronę, czyli jak się nie zgadzasz, to masz wyjść. Akurat Agencja Bezpieczeństwa Wewnętrznego wykorzystuje pliki cookie, ale nie wykorzystuje żadnych plików śledzących, tam są wyłącznie ciasteczka niezbędne.
To też warto wiedzieć: jeżeli mamy wyłącznie ciasteczka, które są niezbędne do funkcjonowania strony, wtedy na takie pliki cookie zgoda nie jest potrzebna. Tak na przykład zrobił Urząd Ochrony Danych Osobowych, który nie ma na swojej stronie żadnego banneru cookie, ale też nie wykorzystuje żadnych ciasteczek śledzących. Tam są wyłącznie takie ciasteczka, które służą technicznemu funkcjonowaniu strony, a nie jakiemuś przetwarzaniu danych.
Wielu więc ludzi myśli, że nie będzie mogło korzystać, a sądzę też, że dla bardzo wielu jest to po prostu bez znaczenia. Ja często pokazuję – nie wiem, czy miałeś okazję gdzieś zobaczyć banner, który jest na stronie brytyjskiego ASZdziennika – The Daily Mash, i tam są dwa przyciski – jeden, to zamiast zgody jest przycisk „Whatever”. Myślę, że to dobrze oddaje stan umysłu użytkownika, który dostaje taką informację i musi ją kliknąć. Podsumowując więc: ten procent utraty danych nie jest aż tak duży (przynajmniej w tych przypadkach, które znam), jak mogłoby się niektórym wydawać, natomiast na pewno z pewnym procentem utraty danych musimy się pogodzić.
Powiedziałeś fajną rzecz o tym: „Whatever”. Zastanawiam się, bo teraz też mimo tych, powiedzmy sobie, trochę upośledzonych wersji zgód na cookie typu: „Mogę kliknąć X, nie muszę, nic to nie zmienia”, bardzo często jest tak, że te bannery są bardzo mocno sugestywne, co należy zrobić, czyli wiesz: „Tak, lubię cookie, nie chcę, żeby zginął kotek na świecie”. Czy tego typu manipulacje będą dalej OK? Czyli: „tak, chcę mieć superwypasiony sklep”, albo „Nie, wolę, żeby ten sklep w ogóle nie dawał mi możliwości zamówienia”, bo to jest manipulacja.
Tak, tak, pamiętam. Kiedyś, gdy rezerwowałem bilet lotniczy i zaproponowano mi zakup ubezpieczenia, to było: „Zgadzam się”, a drugie: „Nie, zaryzykuję”.
No właśnie.
To osobny temat, są to tak zwane dark patterns i to kolejna rzecz, która pewnie niedługo w całej branży marketingowej będzie coraz bardziej nagłaśniana. Ona również jest obecnie bardziej z zakresu prawa. Może ten temat odłożę na bok, natomiast z całą pewnością dark patterns to jest taki buzzword, który coraz częściej we wszelkiego rodzaju publikacjach prawnych dotyczących funkcjonowania e-Commerce się pojawia. Należy więc przyjmować, że takie praktyki będą coraz bardziej piętnowane.
Teraz można się zastanawiać, czy jeżeli ja mówię komuś, czy się zgadzam, daję mu OK i przechodzę do ustawień, czy to już jest dark pattern, czy nie? Niedawno widziałem taki banner, na którym w rogu był krzyżyk i było napisane na nim: „Zgódź się i zamknij”. Zresztą bardzo często ludzie klikają ten przycisk: „Zamknij”, bo nie wiedzą, czy mają się zgodzić, czy nie, i myślą, że to będzie najbezpieczniejsze, żeby po prostu zamknąć to okienko, niech ono ucieka. Wykorzystywanie więc takich manipulacji do… nie chcę powiedzieć: „wyłudzenia zgody”, ale jednak do skłonienia użytkownika, żeby tę zgodę dał, to, myślę, będzie coraz bardziej na cenzurowanym. Jeżeli miałbym stawiać docelowo, wyjdzie jednoznaczna interpretacja, która powie: „Na tym bannerze musisz mieć: Zgadzam się lub Nie zgadzam się oraz możliwość dla tych (nie chcę mówić) hobbystów, szczególnie zainteresowanych, aby udzielić jakiejś granularnej zgody.
A co właściwie stanie się, jeśli ktoś się nie zgodzi? Czy dla strony internetowej taka sesja użytkownika, który nie wyrazi zgody, jest sesją, która nigdy nie miała miejsca, czy mimo wszystko da się jeszcze na podstawie jego ruchu chociaż zbierać dane, powiedzmy sobie, zanonimizowane, czy bardziej masowe na potrzeby statystyk?
Zacznijmy od tego, że jeżeli zgody nie ma, czyli jeżeli użytkownik zignoruje banner, jeśli taka możliwość istnieje, albo go zamknie krzyżykiem, to trzeba przyjąć, że tej zgody nie ma, czyli że jest odmowa i tych danych przetwarzać nie możemy. Natomiast to nie oznacza, że my nie możemy przetwarzać absolutnie żadnych danych. Oznacza tylko to, że nie została wyrażona zgoda na stosowanie cookie lub innych identyfikatorów, które pozwalają w pewien sposób śledzić użytkownika.
Zauważ, że przecież, nawet jeżeli strona nie stosuje żadnych ciasteczek, to cały czas jej serwer przecież też zbiera logi, prawda? Czyli każde wejście na serwer jest odnotowywane. Więc my w przypadku, kiedy nie mamy zgody użytkownika, wciąż możemy takie dane zbierać, ale one nie mogą pozwalać na połączenie tych poszczególnych wejść na stronę z konkretnym użytkownikiem, czyli to muszą być dane anonimowe, w których tak de facto zbieramy hity.
To jest coś, co Google wykorzystał w tak zwanym consent mode. To jest tak zwany tryb zbierania zgody. Na czym on polega? Gdyby go nie było, to w momencie, gdy użytkownik nie wyraził zgody na przetwarzanie, zbieranie danych analitycznych czy też reklamowych dla firmy Google, to taki kod powinien zostać zablokowany, natomiast z consent mode kod uruchamiany jest za każdym razem, ale przekazywany jest do niego odpowiedni parametr zgody, który mówi na przykład, że dany użytkownik zgodził się na funkcje reklamowe albo analityczne i na wszystkie inne, lub nie zgodził się na nic.
Jeżeli użytkownik nie wyraził zgody na nic, to Google Analytics zbiera takie poszczególne hity, ale każdy z nich nie jest przypisywany do konkretnego użytkownika. Dla tych, którzy znają bardziej funkcjonowanie Google Analytics – to polega na tym, że nie jest nam przypisywany konkretny client ID. Czyli tak naprawdę to technicznie odbywa się w ten sposób, że za każdym razem, przy każdej odsłonie przypisywany jest tam nowy, randomowy identyfikator użytkownika.
Co Google zamierza z tymi danymi zrobić? Zauważ, że skoro część użytkowników zgadza się na zbieranie od nich danych, czyli co do części użytkowników mamy wiedzę, jak się zachowują, to również na podstawie tych anonimowych danych możemy spróbować zamodelować, w jaki sposób oni się zachowują. Wiemy, że na 100 odsłon strony przypada zazwyczaj 30 użytkowników. Mamy jakiś współczynnik konwersji na tych, którzy pochodzą z takiego źródła, takiego i takiego, to my widzimy, ile jest tych hitów. Wiemy też, skąd ci użytkownicy przychodzą, bo ten referral cały czas możemy zbierać. Odnotowujemy też konwersję, natomiast nie możemy łączyć z sobą tych właśnie informacji o wejściu i konwersji, ale możemy zgadywać, że ta proporcja będzie mniej więcej podobna.
To, oczywiście, jest dużo bardziej skomplikowane modelowanie. Podaję tu sposób dosyć naiwny, ale właśnie dzięki takim estymacjom przy włączonym consent mode Google uzyskuje przede wszystkim informacje o tym, jak wiele wizyt jest bez zgody, jak wiele konwersji, które wciąż może odnotować, jest bez zgody, i próbować zgadywać, estymować, na ile one, na przykład, pochodzą z kampanii Google Ads. W tym momencie w naszych strategiach Google Ads one zostaną domodelowane, czyli Google powiedział tak: „Połowa użytkowników dała zgodę, oni mieli 100 konwersji. Druga połowa nie dała zgody, no i my zakładamy, że tej konwersji będzie trochę mniej, bo wiemy, że użytkownik, który nie dał zgody, gorzej konwertuje. Będzie ich 20″. Wtedy my w tym końcowym raporcie zobaczymy sumę tych 2 konwersji jako tę najbardziej prawdopodobną liczbę konwersji, która została wygenerowana przez wszystkich użytkowników łącznie z tymi, którzy zgody nie dali.
Generalnie wdrażanie systemu zarządzania zgodami powinno uwzględniać już uruchamianie kodów… To na razie dotyczy Google, ale Facebook ma już tego zalążki i wydaje mi się, że większość trackerów będzie zmuszona do tego, żeby taki consent mode zaimplementować. Ja jeszcze o tym wspomnę za sekundkę, natomiast dzięki temu my znacznie zminimalizujemy tę utratę danych w stosunku do tego, gdybyśmy po prostu tych danych w ogóle nie widzieli.
Spójrzmy jeszcze na tę drugą stronę medalu. Z jednej strony są, oczywiście, regulacje prawne i to wszystko, co wymusza na nas pewnego rodzaju mechanizmy na stronie, natomiast z drugiej strony pojawiło się Apple, które ma ewidentną „kosę” z Facebookiem, bo tam zaczęły się problemy z przekazywaniem danych. Przeglądarki internetowe też deklarują, że zaczną odchodzić od cookie i będą utrudniały w ogóle śledzenie użytkowników.
Czy mógłbyś, po pierwsze, trochę rozwinąć ten temat, a po drugie, trochę podpowiedzieć e-Commerce, co w ogóle mogą z tym zrobić? Zaczęły się te dane bardzo mocno zaburzać, na przykład, w panelu reklamowym Facebooka.
Myślę, że przede wszystkim warto rozumieć, na czym te wszystkie zmiany technologiczne polegają, i tu rzeczywiście firma Apple wiedzie prym w zmianach zwiększających prywatność użytkownika. Na początek sądzę, że warto zwrócić uwagę na jeden aspekt czy też mit, który się powoli tworzy, a mianowicie my mówimy, że nadchodzi era cookieless, czyli że znikną ciasteczka, więc to nie jest do końca prawda. Ciasteczka nie znikną. Zostaną z nami jeszcze przez długi czas.
Większość tych restrykcji, o których mówimy, dotyczy przede wszystkim tak zwanych third party cookies, czyli ciasteczek, które umożliwiają właśnie śledzenie użytkownika między różnymi stronami i łączenie informacji zbieranych właśnie na tych różnych stronach. Między innymi są to ciasteczka, które odpowiadają za kampanie remarketingowe w sieci Google czy też innych sieciach, tak zwanych real time bidding.
Zaczęło się to w roku 2017. Firma Apple wprowadziła intelligent tracking prevention. Na początku zaczęli właśnie te third party cookies ograniczać. Zaczęto skracać czas ich trwania, a ostatecznie doprowadziło to do tego, że dzisiaj w przeglądarce Safari third party cookies są domyślnie wyłączone, czyli remarketing w sieci Google, jeśli chodzi o niezalogowanych użytkowników w Safari, nie istnieje.
Po wprowadzeniu ograniczeń third party cookies firmy takie, jak Google i Facebook zorientowały się, że tak naprawdę dużą część tych funkcji są w stanie zrealizować za pomocą plików first party cookies. Polega to na tym, że zamiast instalować swoje ciasteczko, skrypt Google za naszą zgodą instaluje first party cookie, czyli ciasteczko naszej strony, które później, kiedy użytkownik tę stronę po raz kolejny odwiedza, nasza strona odczytuje i grzecznie wysyła informację do Google czy Facebooka o tym, co się wydarzyło.
Żeby powiązać ze sobą te informacje, używana jest dekoracja linku. Nie wiem, czy zwróciłeś uwagę, ale właśnie w roku 2017, w tych okolicach, Facebook zaczął doklejać do każdego kliknięcia w link taki identyfikator fbclid. Zaszyta jest w nim informacja nie tylko o tym, co ty kliknąłeś, ale przede wszystkim informacja, kto to zrobił. Dzięki temu identyfikatorowi, który jest odczytywany przez skrypt Pixela Facebooka, tworzone jest first party cookie z nim powiązane. Teraz Facebook wie, że za każdym razem, kiedy odwiedzasz stronę, ta informacja first party nadawana przez stronę dotyczy właśnie tego konkretnego użytkownika. Najkrócej mówiąc, zostało to w pewien sposób ominięte.
Apple, gdy zauważył, co się dzieje, stwierdził, że skoro wy tak robicie, to my te first party cookie, jeżeli zostały stworzone przez skrypt śledzący i wiążą się z dekoracją linku, my te ciasteczka też będziemy ograniczać. Nie zostały one skasowane, natomiast skrócono czas ich trwania do maksymalnie 7 dni. To w praktyce oznacza, że Pixel Facebooka, kod śledzący Google Ads, kod śledzący Analytics, te wszystkie ciasteczka – po 7 dniach na komputerach użytkowników Safari nie ma już po nich śladu.
To jest, oczywiście, pewien problem, zwłaszcza, jeśli proces zakupowy klienta trwa dłużej niż tydzień. Na to też znalazło się obejście i jest to tak zwane śledzenie server-to-server, które stało się znacznie łatwiejsze do wdrożenia dzięki wprowadzeniu przez Google Server Side Google Tag Managera.
Na czym to polega? Google Tag Manager jest, myślę, większości branży e-Commerce znany. To kontener, w którym konfigurujemy sobie kody śledzące i on jest później uruchamiany przez naszą stronę i te kody śledzące przez ten kontener się, kolokwialnie powiem, odpalają, zostawiają te wszystkie ciasteczka, i w ten sposób to się odbywa.
Server Side Google Tag Manager zostawia na naszym komputerze ciasteczko serwerowe. To jest takie ciasteczko, w które przeglądarki nie ingerują. Zaraz wspomnę jeszcze o tym, dlaczego, ale nie ingerują, i następnie całość komunikacji odbywa się bezpośrednio z serwera naszej strony, czy też serwera Google Cloud, który my sobie wykupimy, z serwerami Facebooka i Google. Z punktu widzenia przeglądarki jest to takie samo ciasteczko, jak na przykład ciasteczko, które strona wykorzystuje do utrzymania koszyka.
Tak jak powiedziałem, first party cookie nie znikną, zresztą to jest, wydaje mi się, technicznie niemożliwe. Jeśli ktoś w to nie wierzy, polecam wejść w przeglądarkę, zablokować obsługę plików cookie i spróbować zrobić jakiekolwiek zakupy w e-Commerce. Nie wspomnę o mediach społecznościowych, do których po prostu się nie zalogujemy. Do banku też się, oczywiście, nie zalogujemy, bo tam też są cookies związane z bezpieczeństwem. Generalnie każda strona e-Commerce cię wywali i to od najmniejszych stronek stawianych przez małe sklepy po takie wielkie site’y jak Amazon czy Allegro. Więc first party cookie czy też jakaś inna forma first party storage będzie musiała z nami zostać jeszcze przez bardzo długi czas.
Takie więc rozwiązanie, które wykorzystuje właśnie first party storage generowane przez stronę, a następnie całość komunikacji realizujesz bezpośrednio z serwera na serwer, w zasadzie rozwiązuje w całości problem ograniczania przez Apple plików first party cookie generowanych przez skrypty. Jest to więc jedna z rzeczy, których wdrożenie strony WWW powinny rozważyć, jeżeli chcą zachować najwyższą jakość danych. W wydaniu Facebooka, takie śledzenie server-to-server jest używane do tego tak zwane Facebook Convertion API. Czyli to jest właśnie ten sam system, który realizuje przesyłanie danych bezpośrednio z serwera do serwera. Tak po części trochę odpowiedziałem. Jednym z tych sposobów na to, żeby przed tym się obronić, jest chociażby właśnie śledzenie server-to-server.
Brzmi trochę jak taka walka dobra ze złem, bo z jednej strony jedni blokują, to ci obchodzą, więc ci blokują jeszcze bardziej, zatem tamci obchodzą jeszcze inaczej i koniec końców wydaje się, że jak można było, tak dalej można śledzić, tak?
No nie do końca, dlatego że, zauważ, to ominięcie jest tylko częściowe, to znaczy Google nie jest już w stanie prowadzić remarketingu dla niezalogowanych użytkowników. Facebook nie jest już w stanie za pomocą third party cookies zbierać informacji o każdej wizycie użytkownika na stronie, na której jest Pixel. Żeby powiązać ze sobą użytkownika z hitem Pixela, musi nastąpić przekierowanie użytkownika z Facebooka na daną stronę, więc to nie do końca tak zadziałało. Natomiast w tej walce, kiedy już zaczęto powszechnie wdrażać śledzenie server-to-server, to tak jak powiedziałem, w tym momencie Apple musiał się poddać.
Poddał się tylko na tym małym froncie, dlatego że kolejnym ruchem, który nastąpił, było wprowadzenie PCM, czyli Private Click Management. To jest pewna propozycja, protokół, który właśnie wziął na celownik te identyfikatory. Facebook powiedział więc, że identyfikator fbclid nie jest w porządku, dlatego że w nim można przekazać każdą informację. Na blogu WebKitu jest takie stwierdzenie, że naszym zdaniem strony internetowe nie powinny mieć możliwości połączenia kliknięcia z konwersją, ale chcielibyśmy wspierać możliwość pomiaru skuteczności reklam.
Jak pewnie słuchasz tego, to widzisz, że to są 2 sprzeczne ze sobą stwierdzenia. Apple mówi: „Więc aby jednak to śledzenie reklam umożliwić, my proponujemy pewien kompromis. Nie będziecie mogli dodawać dowolnego identyfikatora do kliknięcia. To będzie musiał być identyfikator, który będzie miał wartość od 1 do 256, czyli możecie sobie w swojej kampanii na Facebooku podzielić ją maksymalnie na 256 czego tam chcecie (grup reklam, kampanii)”. To jest wymierzone w Facebooka, ale generalnie nie wyłącznie w niego. To dotyczy tak naprawdę każdego systemu reklamowego.
Właśnie taka jest idea tego Private Click Management, czyli następuje bardzo duże ograniczenie również informacji, które można wprowadzać do takiego Pixela śledzącego. Również wprowadzono ograniczenie możliwości raportowania konwersji, czyli też nie można raportować dowolnie aktywności użytkownika na stronie, tylko maksymalnie w propozycji Apple to jest 16 różnych konwersji.
To, oczywiście, propozycja, natomiast Apple w swoim ekosystemie iOS dla iPhone’a wprowadził dodatkowo wymóg w ramach tak zwanego app tracking transparency uzyskania wyraźnej zgody użytkownika na śledzenie poza aplikacją. Czyli nieważne, że masz w regulaminie, że na wszystko się zgodziłeś. No spoko, ale tutaj, jak każda aplikacja, ma wyświetlić bardzo prosty banner „Zgadzam się” albo „Nie zgadzam się”. Teraz w przypadku użytkowników, którzy się nie zgadzają, tutaj jest taki bright pattern, to nie jest takie tam: „Zgadzam się, może nie”, tylko „Czy wyrażasz zgodę na śledzenie?”, prawda? I mówisz: „Zgadzam się lub nie”.
Nie brzmi to w ogóle pozytywnie.
Nie zachęca to tak naprawdę do dania zgody, prawda? Więc rzeczywiście, ten poziom odmów był dosyć wysoki. W przypadku aplikacji, w których zgoda nie została uzyskania w środku tych użytkowników. Między innymi właśnie Facebook został zmuszony do stosowania tego protokołu Private Click Management, który Apple uważa za taki właśnie kompromis między tym, że prywatność użytkownika jest zachowana – nie można na tej podstawie zidentyfikować konkretnej osoby, ale możesz w jakimś tam rozsądnym zakresie mierzyć, na ile te reklamy, które prowadzisz, są skuteczne. To doprowadziło do takiej masowej akcji. Wszyscy ci, którzy pracują z systemem reklamowym Facebooka pamiętają, że trzeba było ograniczyć właśnie strukturę kampanii, musiało być mniej grup reklam, trzeba było zweryfikować domenę, zniknęła też atrybucja.
Obecnie maksymalne okienko śledzenia jest 7-dniowe na Facebooku dlatego, że mimo tego, że dotyczyło to tylko Apple, to Facebook zdecydował się na taki ruch, domyślam się, po to, aby nie stosować różnych kryteriów dla ruchu, który pochodzi z różnych ekosystemów. Jeżeli ktoś jeszcze tego nie zrobił, chociaż w to raczej wątpię, to oczywiście trzeba dostosowywać się do tych zmian, wymogów, które stawia przed nami chociażby system Facebooka – Meta, tak, aby te kampanie można było w dalszym ciągu prowadzić.
Poruszyłeś tu kilka tematów. Rzeczywiście, bardzo dobrze, że przypomniałeś znaczenie first party data. O tym się zresztą dosyć dużo ostatnio mówi. Trochę ubolewam nad tym, że poza tym, że się właśnie wspomina first party data nie rozwija się, o co chodzi konkretnie, natomiast tu już od tego są konkretne rozwiązania i chodzi o enhanced conversions i advanced matching – pierwsze w Google, a drugie w Facebooku. To są bardzo podobne rozwiązania, które opierają się o bardzo prosty mechanizm.
Zauważ, że kiedy dokonywana jest konwersja, to wiemy, kto skonwertował, bo mamy adres e-mail, czy to będzie lead, czy transakcja, mamy też bardzo często numer telefonu. Z drugiej strony zarówno Facebook, jak i Google, bardzo często mają informacje o tym, kto tę reklamę kliknął, bo my również do Facebooka jesteśmy zawsze zalogowani, do Google też bardzo często chociażby przez YouTube. Skoro w takim razie wiemy, kto skonwertował, a Google i Facebook wiedzą, kto kliknął, to dlaczego nie połączyć ze sobą tych danych i w ten sposób śledzić konwersję? Zobacz, że do tego nie jest potrzebne żadne ciasteczko. Jest to w dodatku zupełnie odporne na, już nie wspomnę, czyszczenie ciasteczek, które są do tego niepotrzebne, ale również pozwala nam to dodatkowo zdobyć dane, które dotychczas traciliśmy z tego powodu, że użytkownicy korzystają z coraz większej liczby urządzeń, bo generalnie śledzenie między różnymi urządzeniami jest bardzo utrudnione. Tutaj po prostu śledzimy konkretne osoby, więc wdrożenie enhanced conversion i advanced matching to jest też jedna z kolejnych rzeczy, które każdy, kto prowadzi kampanię w Google i Facebooku, powinien wprowadzić na swoją listę zadań do wykonania.
W praktyce to polega na tym, że kod śledzenia hashuje dane osobowe użytkownika, czyli e-mail czy numer telefonu, przesyła je w tym kodzie konwersji do Facebooka i Google, no i Google porównuje, czy wśród tych zahashowanych danych coś się matchuje z ich zahashowaną bazą danych. Jeśli tak, wtedy powiązuje te dane. Jeżeli w bazie Google czy Facebooka tego adresu czy hashu nie ma, bo to jest przekazywane w sposób zhashowany, jednostronnie, nieodwracalnie zaszyfrowane, to w tym momencie te dane są bezużytecznym ciągiem znaków i Google, Facebook ich nie przetwarzają. Więc to jest coś, co w znacznym stopniu zwiększa jakość danych. Do tego dochodzą first party data takie jak user ID w Google Analytics.
W Google Analytics 4, miejmy nadzieję, ten user ID będzie działał lepiej, niż to, w jaki sposób to było realizowane w Universal Analytics. User ID to taka funkcja, która umożliwia w przypadku użytkowników zalogowanych śledzenie ich, wykorzystując właśnie ten fakt, że są zalogowani, czyli jeżeli by się zalogowali na różnych urządzeniach, to, mimo że ciasteczka będą inne, Google będzie wiedział, że to jest ta sama osoba.
Natomiast problem z tym user ID w Universal Analytics był taki, że mogliśmy wyłącznie śledzić widok tych użytkowników zalogowanych nie w kontekście całości. To nie wzbogacało tych danych, tylko mieliśmy taki mały skrawek. W dodatku to śledzenie było tylko w czasie, kiedy oni byli zalogowani, więc to było dosyć kulawe.
Natomiast ideą Google Analytics 4 jest to, żeby właśnie wzbogacać te dane, które są zbierane przy pomocy ciasteczek i tego first party storage zarówno danymi ze strony Google, czyli tymi tak zwanymi signals, jak również to, żebyśmy mogli tym naszym user ID, czyli tym first party data, zasilić raportowanie i chociażby połączyć ścieżki dotychczas dwóch użytkowników (bo tak Google ich widział, a my wiemy, że to jest jedna, ta sama osoba). Wtedy ścieżki konwersji się łączą i tak naprawdę widzimy, skąd ta osoba do nas przyszła i dlaczego kupiła, a nie po prostu jakieś bezpośrednie wejście i transakcja nie wiadomo skąd.
Pytałeś, czy to jest legalne. Od razu więc powiem: to generalnie jest legalne tak, jak legalne jest to, że stosujesz listy klientów. Czyli przesyłamy na przykład adresy e-mail do Facebooka i on na podstawie tych danych wysyła użytkownikom kampanie remarketingowe pod warunkiem, że masz zgodę. Natomiast jeżeli masz wprowadzony system zarządzania zgodami, czyli właśnie uzyskałeś zgodę w odpowiednio stworzonym bannerze zgody, to w tym momencie ona również to będzie obejmowała. Swego czasu też przeprowadziłem rozmowę z radcą prawnym Agnieszką Grzesiek-Kasperczyk, w której właśnie uzasadniamy, dlaczego takie rozwiązanie powinno być legalne (podam później adres do tej rozmowy). Tu znowu zastrzegam: pamiętajcie, że zawsze diabeł będzie tkwił w szczegółach, natomiast co do zasady my te dane możemy przesyłać, ale musimy mieć do tego zgody.
Trzecia rzecz, o którą pytałeś, czyli czy Google Analytics jest w ogóle legalny. Zakładam, że chodziło ci o doniesienia prasowe, które mówiły, że teraz już z Google Analytics nie wolno korzystać. To jest w ogóle sprawa związana z działalnością pana Maxa Schremsa. To austriacki prawnik, aktywista, który założył kancelarię pod nazwą None Of Your Business. Jego taką dewizą jest: „My privacy is none of your business”. To jego sprzeciw wobec tego, że korporacje w ramach prowadzenia swojego biznesu wykorzystują dane osobowe.
Jednym z jego takich najistotniejszych dokonań jest tak zwana sprawa Schrems 2, która doprowadziła de facto do unieważnienia tak zwanej tarczy prywatności między Unią Europejską a Stanami Zjednoczonymi jako podstawy do przesyłania danych na serwery amerykańskie na takiej samej zasadzie, jakby znajdowały się one w Unii Europejskiej, w której, wiadomo, wszystkie kraje obowiązuje RODO. Tam zostało podniesione między innymi to, że do tych danych potencjalnie mogą mieć dostęp służby specjalne i rzeczywiście, w Stanach Zjednoczonych nie jest zapewniona na równym poziomie kontrola, transparentność tych wszystkich procedur, zwłaszcza jeśli chodzi o służby specjalne. Czyli, najkrócej mówiąc, chodzi o to, że do Marka Zuckerberga przychodzi CIA i mówi: Słuchaj, pokaż mi, co na stronie Allegro robił Wrodarczyk, bo widzę, że tam mają Analytics, więc wy pewnie wiecie.
Kiedy uznano, że rzeczywiście ta tarcza prywatności jest nieważna, pojawiły się wątpliwości, czy w takim razie to przetwarzanie danych przez amerykańskie firmy w ogóle jest legalne. Co od tego czasu się wydarzyło? Chociażby w kontekście Google Analytics przede wszystkim on wykonał pewne ruchy. Został zmieniony sposób przetwarzania danych użytkowników z Unii Europejskiej. Są one przetwarzane wyłącznie na serwerach Unii Europejskiej, a to, co jest przetwarzane w jakiejś bardziej globalnej chmurze, jest dodatkowo anonimizowane. Czyli spróbowano zrobić tak, żeby jednak istniała na tyle, na ile to jest możliwe, bariera między tą fizyczną obecnością danych w Unii Europejskiej, a ich wyjściem poza europejską jurysdykcję. Ponadto to był marzec tego roku, podczas wizyty Bidena w Brukseli zostało podpisane porozumienie, w którym Stany Zjednoczone zobowiązały się do wprowadzenia dodatkowych regulacji, które ochronią lepiej dane użytkowników z Unii Europejskiej przetwarzane przez firmy amerykańskie.
Większość prawników, z którymi rozmawiałem na ten temat, zwłaszcza w kontekście tego, co się wydarzyło, mówi, że ten problem nielegalności Analytics nie powinien spędzać nam snu z powiek. Pamiętajmy, RODO nie zabrania wysyłania danych poza Unię Europejską, ale żeby to robić, trzeba dokonać pewnych dodatkowych kroków, oczywiście, adekwatnych do tego, jakiej skali dane przetwarzamy, jakie to są dane, tak, żeby zabezpieczyć je zgodnie z obowiązującymi standardami.
O ile więc w niektórych przypadkach rzeczywiście bardzo drażliwych czy ogromnej ilości danych na temat bardzo szerokiego zakresu aktywności można się zastanawiać, czy ryzyko złamania zasad RODO jest duże, natomiast wielu prawników uważa, że przeciętny sklep internetowy raczej nie powinien być narażony na zarzuty, że przesyła te dane w jakieś niepowołane ręce. Zresztą RODO to regulacja, która nie jest oparta o jakieś konkretne przepisy: A, B, C, D – to wolno a tego nie, a o pewną zasadę równowagi między prywatnością użytkownika, a wykorzystywaniem danych również w obiegu gospodarczym.
Wiemy, że kiedyś, gdy weszło RODO, nagle ktoś sobie wymyślił: „Ja zażądam od komornika usunięcia moich danych (Ha, ha, ha!) i w ten sposób go wykiwam. Oczywiście, w tym momencie RODO mówi: „No nie, tak nie można. Ty, oczywiście, masz prawo do bycia zapomnianym, ale w tym przypadku uzasadniony interes twojego wierzyciela jest taki, żeby te dane były w dalszym ciągu przetwarzane”.
To jest bardziej dyskusja, którą powinien prowadzić prawnik, ale pamiętajmy, że to nie polega na tym, że skoro tarcza prywatności jest nieważna, to od razu Google Analytics jest nieważny. Zresztą zauważmy, że w ten sposób nielegalne byłoby w zasadzie korzystanie chyba z całego Microsoftu, bo wydaje mi się, że ta chmura Microsoftu jest w Stanach Zjednoczonych. A co ze wszystkimi stronami WWW, które są na serwerach Amazona?
Nic takiego więc nie nastąpiło i to, oczywiście, jest interpretowane medialnie, za tym też idą działania aktywistów. Nie chciałbym być źle zrozumianym – taka jest właśnie rola aktywistów. Oni podnoszą czasami nawet wyolbrzymione zarzuty, ale dzięki temu zmuszają korporacje i twórców prawa do tego, żeby w lepszy sposób te interesy zabezpieczać. Jednak umówmy się, że w każdym takim aktywizmie zawsze będzie element pieniactwa, ale w tym przypadku to nie jest nic złego. Tak to po prostu działa i tak to musi działać. Aktywista nie może powiedzieć: „Posłuchaj, wiesz, ja tak w zasadzie chciałem się ciebie zapytać, czy ty aby na pewno…?”. No nie, to tak nie działa. Aktywista musi po prostu przyłożyć z grubej rury.
Żeby więc to podsumować: większość prawników jednak stoi na stanowisku, że skoro jest już porozumienie co do przyszłej kary czy prywatności, to raczej powinniśmy zakładać, że tym, którzy przetwarzają dane, właśnie wykorzystując firmy spoza Unii Europejskiej, to niekoniecznie muszą być firmy z krajów o niskich standardach demokracji. Tu mówimy o Stanach Zjednoczonych, Szwajcarii, gdzie też przecież mogą się znajdować serwery. Raczej więc nie powinniśmy się obawiać o to, czy to będzie legalne, natomiast rzeczywiście, będziemy widzieli pewnie nieraz tego rodzaju rozstrzygnięcia, które w jakimś konkretnym przypadku, który może być uzasadniony, uznają, że tutaj te zasady nie zostały dochowane.
Zróbmy teraz taką część praktyczną, która może przyszłym czy obecnym właścicielom e-Commerce trochę spraw rozjaśnić.
Przy założeniu, że mam sklep, czy mógłbyś dać taki przepis na wdrożenie już nowego Google Analytics (bo starym raczej już się nie będziemy przejmowali) w taki sposób, żeby z jednej strony jednak szanować prawa użytkowników do prywatności, tym bardziej że ustawy też tego wymagają, a z drugiej strony, żeby rzeczywiście te dane, które zbieram, były jak najlepsze, abym po prostu nie pogubił tego, czego gubić nie muszę?
To generalnie nie dotyczy to tylko Analytics, zresztą cały czas warto mieć Universal Analytics. Jak wiemy, ten GA4 to jeszcze nie jest to, co nam obiecywano i do czego Google zmierza. Przede wszystkim każda strona, która wykorzystuje kody śledzące, czyli ta, która korzysta z analityki, systemów reklamowych Google, Facebooka, czy też, na przykład, Criteo (bardzo wielu mamy graczy na rynku), musi wdrożyć consent management, czyli właśnie banner, który będzie zbierał zgody – warto to podkreślić – taki właśnie bannerek, który jest na stronie i mówi, że ta strona korzysta z cookies – “OK”. To nie jest system zbierania zgód. To musi działać i musi respektować wybory użytkownika.
Warto przy okazji tam, gdzie kody śledzące taką możliwość nam dają, stosować consent mode, czyli właśnie tryb, który niezależnie od zgody użytkownika będzie jakieś dane zbierał, oczywiście w takim zakresie, w jakim ta zgoda użytkownika została wyrażona. Dzięki temu będzie można zminimalizować stratę wynikającą z odmów, i również (choćby w przypadku systemów Google) modelować te brakujące dane.
Trzecia rzecz – first party data, czyli enhanced conversion i advanced matching. Jeżeli prowadzisz reklamy w systemie Google czy Facebooka, również jest to rzecz bardzo godna polecenia. Ona w znacznym stopniu poprawi jakość danych, a dla tych, którzy chcą uzyskać najlepszą ich jakość, wdrożenie również rozwiązań server side, czyli na przykład Server Side Google Tag Manager i Facebook Conversion API.
Mówiliśmy dużo o tym, że takim prowodyrem ochrony prywatności było Apple, które zaczęło trochę rzeczy blokować. Co by było, gdyby Google jednak też stwierdził, że zaczynamy blokować to śledzenia użytkowników?
To nie jest pytanie o to, co by było, gdyby, dlatego że tak naprawdę Google już planuje tego rodzaju zmiany. W odpowiedzi na to, co zrobił Apple, Google, który posiada swoją własną przeglądarkę Chrome, nie mógł dopuścić do sytuacji, w której mamy przeglądarkę Safari, która jest bezpieczna dla użytkownika i przeglądarkę Chrome, która generalnie sprzedaje nasze dane. To jest oczywiste. Mam też przekonanie, że również po stronie Google znaleźli się ludzie, którzy zrozumieli zasadność tych zmian.
Dla firmy Google ta decyzja była trochę trudniejsza, bo Apple miał sprawę jasną – oni nie mają systemu reklamowego, nie są Facebookiem, nie osiągają znacznych dochodów z reklamy, więc tak naprawdę powiedzieli: „OK, wywalamy third party cookies, bo rodzą zagrożenie dla prywatności, blokujemy identyfikatory, a wy sobie radźcie z tym, jak możecie”. Natomiast Google tak komfortowej sytuacji nie ma przede wszystkim dlatego, że sieć reklamowa w dużej mierze jest oparta o remarketing, a to działa w oparciu o third party cookies, więc Google stwierdził, że chce zachować prywatność, ale też chce zachować „użyteczność Internetu”. Oczywiście, możemy mówić, że Google chce po prostu chronić swój biznes, ale on argumentuje to też tym, że tak naprawdę w Internecie jest tak dużo wartościowych treści dzięki temu, że ich autorzy mogą je monetyzować dzięki reklamom na swojej stronie. Jeżeli więc sparaliżujemy branżę reklamową, uniemożliwimy prowadzenie skutecznej reklamy, to w ten sposób zmniejszymy możliwości generowania wartościowych, bezpłatnych treści w Internecie.
Co zrobił Google? Zaczął tworzyć zestaw propozycji pod nazwą „privacy sandbox”, który jest znacznie bardziej złożony niż to, co proponuje Apple. To takie kompleksowe rozwiązanie wszystkich aspektów związanych, po pierwsze, z usunięciem third party cookies, a po drugie, również z ograniczeniem cookies generowanych przez skrypty.
To cały czas jest w sferze propozycji. Te rozwiązania są testowane. Niektóre są wyrzucane do kosza, na przykład niedawno propozycja flock została zastąpiona przez propozycję topics API. To była propozycja, w jaki sposób realizować reklamy oparte o zainteresowania. Ostatecznie Google stwierdził, że sposobem na zwiększenie prywatności użytkownika jest zmniejszenie granularności tych zainteresowań. Czyli przykładowo kiedyś Google dostarczał nam, że dany użytkownik jest zainteresowany zakupem używanego samochodu Audi, to teraz przypuszczalnie w miejsce tego rodzaju kategorii pojawi się motoryzacja albo może w najlepszym wypadku zakup samochodu. Tu znowu chodzi o to, żeby nie dało się na podstawie identyfikacji bardzo szczegółowych zainteresowań próbować fingerprintować użytkownika. To jest więc jedno z rozwiązań.
Google też myśli nad rozwiązaniem, które mimo wszystko pozwoli na remarketing. Myślę, że dla wielu firm e-Commerce to, że nie będzie można prowadzić remarketingu, nie brzmi za dobrze. Google wprowadza więc takie rozwiązania, które będą polegały na tym, że w przeglądarce będzie się odbywała taka mini aukcja reklamowa, która będzie brała również pod uwagę historię przeglądanych stron. Dzięki temu będzie można prowadzić remarketing bez konieczności zbierania przez trackery takie, jak Google czy Facebook historii wszystkich przeglądanych przez nas stron. Czyli historia przeglądania zostanie u nas na komputerze i ona po prostu będzie już lokalnie odpytywana w bardzo prywatnym zakresie, czy może akurat tutaj nie należałoby wyświetlić reklamy remarketingowej.
Tam jeszcze dodatkowo dochodzą rozwiązania dotyczące samej analityki. Pamiętasz, wspomniałem, że Apple powiedział: „Maksymalnie 256 identyfikatorów”, a teraz wyobraź sobie kampanię, która ma 10 000 słów kluczowych, i jak to podzielić na 256 identyfikatorów? Google więc mówi: „My nie będziemy tak bardzo ograniczać tych identyfikatorów. Też będzie limit, ale będzie dużo, dużo większy”.
Google chce wprowadzić takie rozwiązania, które uniemożliwią nam powiązanie konkretnego kliknięcia z konwersją, czyli my będziemy mogli zobaczyć, na przykład, ile konwersji nam dostarczyło konkretne słowo kluczowe, ale jaka to konwersja – już nie. A jeśli będziemy sobie patrzyli, na przykład, na raport poszczególnych transakcji, a zauważ, że transakcja to są dane osobowe, bo do każdej transakcji jest dopisywany jej identyfikator, po którym ty w swoim sklepie możesz sprawdzić, kto z imienia, nazwiska i adresu to kupił – więc jeżeli byśmy chcieli sprawdzić, jakie konkretnie kliknięcie do tego doprowadziło, to tego już nie będziemy widzieć. My to zobaczymy przypuszczalnie, że to po prostu ktoś przyszedł do nas z Google. To więc będzie szło właśnie w zakresie prowadzenia kompromisu, ale nie aż tak bardzo drastycznego, że maksymalnie 256 konwersji.
Jest więc cały czas opracowywany pakiet, który na koniec ma doprowadzić do tego, że prywatność użytkownika będzie zachowana, że nie będzie można na podstawie tych systemów śledzić indywidualnie osoby, ale będzie można uzyskać przyzwoitej jakości dane analityczne i będzie można też prowadzić reklamę opartą o zainteresowania.
Jeżeli kogoś interesuje privacy sandbox, to moim zdaniem najlepiej jest to opisane w serii filmików na kanale Google Chrome Developers. To są bardzo konkretne, kilkuminutowe filmy, w których w przejrzysty, przystępny, ale konkretny sposób są opisane te poszczególne rozwiązania i ja też tutaj podzielę się z wami linkiem do tej playlisty.
Na pewno wszystko podlinkuję, tak że będzie w notatkach dla naszych słuchaczy, a tobie zadam takie może trochę filozoficzne i bardzo ogólne pytanie, ale ciekawi mnie twoja opinia na temat tego, jak właściwie żyć w tej nowej rzeczywistości.
Było tak, że przez długi czas mieliśmy komfort i tak się też mówiło w e-Commerce, w różnych artykułach, że jest lepszy niż offline, bo my możemy wszystko sprawdzić, zobaczyć, kto gdzie był, co kliknął, co wpisał a czego nie. Mogliśmy właściwie badać każdą rzecz, którą użytkownik robił w Internecie, abstrahując od tego, czy firmy z tej możliwości korzystały, czy nie, ale dało się zrobić właściwie wszystko.
W tym momencie idziemy w kierunku z jednej strony anonimizacji, z drugiej bardziej badania użytkownika pod kątem statystycznym, czyli już nie patrzymy, co robił Kowalski, obserwujemy, co robili ludzie w naszym sklepie.
Jakie ty widzisz w tym wszystkim zagrożenia dla marketingu i jak w ogóle nowoczesny marketer, który chce dobrze wykonywać swoją robotę, ma się w tym wszystkim odnaleźć?
To jest bardzo dobre pytanie. Poruszyłeś tak naprawdę wiele bliskich mi kwestii. Przede wszystkim to, do czego musimy się przyzwyczaić, to jest to, że dane na temat użytkownika i możliwości targetowania reklamy nie będą w przyszłości tak precyzyjne i granularne, jak są teraz, i że ta mierzalność, do której się przyzwyczailiśmy, będzie w jakimś stopniu mniejsza, Natomiast, (nie pierwszy raz o tym mówię) my tak naprawdę jesteśmy cały czas do tej mierzalności tak strasznie przywiązani, że nam się wydaje, że jeżeli my czegoś nie widzimy w Google Analytics czy jakimś innym programie śledzącym, to to nie istnieje.
Zresztą ta mierzalność Internetu to była mantra powtarzana na wszystkich konferencjach i przez wszystkich sprzedawców reklamy online, którzy musieli w początkach XXI wieku przekonać swoich klientów do reklamy w Internecie w czasie, gdy ich klienci o nim w najlepszym wypadku wiedzieli, że takie coś w ogóle istnieje. Wtedy powiedziano im, że to jest duże lepsze niż to, co zrobisz w telewizji, bo tutaj dokładnie będziesz widzieć, co było kliknięte, co skonwertowało… Generalnie wszystko widzisz.
Pomijano to, że obraz ścieżki użytkownika, który widzimy w systemie analitycznym, jest po prostu niekompletny, a ta niekompletność zaczęła z czasem rosnąć, kiedy chociażby użytkownicy zaczęli korzystać z komputera i smartfona, kiedy już tak naprawdę tych interakcji w różnych systemach nie dało się tak łatwo powiązać. Kiedy zaczęła rosnąć świadomość prywatności, zaczęło wprowadzać AdBlocki, ograniczenia plików cookie, więc ten proces pogarszania się jakości danych to nie jest coś, co nas czeka w przyszłości. To jest po prostu już kolejny krok naturalnego procesu, który odbywał się od dawna. Powiedziałbym więc, że tak naprawdę marketerzy nie tyle, że powinni przygotować się na gorsze dane. Oni powinni przede wszystkim zrozumieć to, że za każdym razem, kiedy jakieś dane analizujemy, są one niekompletne.
Drugi aspekt, który poruszyłeś, to kwestia precyzyjnego targetowania. Moim zdaniem w tej kwestii doszło do pewnego nadużycia czy też obsesji. Zauważ, jak często spotykamy prezentacje, jak nasz supersystem reklamowy dokładnie każdemu użytkownikowi w danym czasie, w najlepszym momencie, kontekście przekaże tekst, komunikat reklamowy, który najskuteczniej doprowadzi do sprzedaży. Oczywiście, jest w tym dużo prawdy, bo ta optymalizacja wielowymiarowa następuje, natomiast to w dużej mierze jest jednak, mimo wszystko marketing dostawców reklamy.
Wspomniałeś na początku o Cambridge Analytica. Dzisiaj coraz częściej do głosu dochodzą opinie, że tak naprawdę ten cały produkt, który oferowała, to była de facto wydmuszka w sensie, że ta technologia, owszem, zbierała jakieś dane i rzeczywiście wykorzystano pewne informacje na temat części użytkowników Facebooka, którymi oni się podzielili z aplikacjami, klikając zgody, natomiast ani te algorytmy, które posiadali, ani dane, na podstawie których pracowali, nie były w stanie dać istotnie lepszej skuteczności prowadzenia kampanii politycznej, niż, na przykład, stare, dobre targetowanie demograficzne.
Myślę, że dochodzimy do takiego momentu, w którym już nie będziemy mieli możliwości budowania kilkuset person i próbowania dostosowania komunikatu reklamowego do każdej z nich. Zresztą zauważ, często to obserwuję, że te dostosowywane do persony komunikaty są często nienaturalne. Ktoś ci mówi: „Witam ciebie ponownie w naszym sklepie”, prawda? Gdyby sprzedawca powiedział to na żywo, to byłoby miłe, ale jeśli wchodzę na stronę internetową, to dla mnie jest to trochę dziwne, prawda?
To się robi takie trochę creepy.
Tak, albo: „Interesujesz się golfem”. Nie, nie interesuję się golfem, wszedłem na jakąś stronę z golfem. Come on, co wy robicie, prawda? Sam więc widzisz, że to niekoniecznie tak działa. Napisałem zresztą swojego czasu artykuł do Sprawnego Marketingu, w którym zapytałem około dziesięciu ekspertów, w jaki sposób widzą ten przyszły świat. Większość zgodziła się, że tak naprawdę ta hiperpersonalizacja nie jest warunkiem koniecznym, wręcz przeciwnie, czasami może nawet zniechęcać konsumenta. Tak naprawdę do prowadzenia skutecznej kampanii i robienia skutecznych i efektywnych analiz nie potrzebujemy aż tak precyzyjnych danych.
Powiem też z mojej praktyki, że właśnie te precyzyjne dane często takich, powiedzmy, mniej świadomych klientów prowadziły na manowce. Klient dzwoni do mnie i mówi: Słuchaj, ja zobaczyłem, że o godzinie 14.00 mamy 3 konwersje, a o 12.00 – 0. To trzeba koniecznie zoptymalizować. To zupełnie pomija aspekt istotności statystycznej i mnóstwa rzeczy.
Paradoksalnie więc powiedziałbym, że te mniej precyzyjne dane sprowadzą nas z powrotem na bardziej racjonalne tory. Zresztą to nie jest moje stwierdzenie, ale pojawia się pogląd, że właśnie poprzez to odwrócenie się marketingu w kierunku danych, ich zbierania, wykorzystywania, my tak naprawdę jako branża zadziałaliśmy przeciwko sobie, bo przez to właśnie, że firmy marketingowe zaczęły bez ograniczeń wykorzystywać dane, mamy coraz bardziej restrykcyjne regulacje, właśnie działalność aktywistów, którzy się temu sprzeciwiają. Poza tym tak naprawdę na tym wszystkim ucierpiała kreatywność.
Zauważ, że coraz mniej widzimy reklam, które próbują sprzedać nam jakąś historię, opowiedzieć o produkcie. Ja po prostu, jeżeli wejdę w jakiś sklep, to później wchodzę na jakiś portal internetowy i tam niemal tratują reklamy produktów z przekazem: „Kup teraz”, czyli my jako marketerzy, zamiast uwodzić, staliśmy się stockerami. Ten proces najprawdopodobniej, (ja sam mam taką nadzieję) zostanie trochę odwrócony właśnie przez to, że my takich możliwości już w takiej skali, jaka była, nie będziemy mieli.
Jeśli się więc pytasz, w jaki sposób do tego wszystkiego podejść, to oczywiście, trzeba dostosować te narzędzia zbierania danych zarówno do tych wymogów prawnych, jak i technologicznych, wykorzystywać również te narzędzia, które pozwalają nam te dane wzbogacić w sposób legalny. Z drugiej strony, myślę, że warto też zrozumieć, że tak naprawdę ta hiperpersonalizacja i super precyzja danych nigdy nie była nam potrzebna, że narzędzia analityczne są pewnym drogowskazem, który pokazuje, w którą stronę powinniśmy modyfikować naszą komunikację, a nie jest to system księgowy, który nam dokumentuje, co dokładnie z czego wzięliśmy. Mam nadzieję, że tak się stanie, że właśnie ten trend zostanie odwrócony, że marketerzy znowu wrócą trochę do korzeni i to zarówno w kwestii analityki, jak i samej kreacji reklamowej.
Zaczynaliśmy od tego, że był moment, w którym modelowanie atrybucji było twoim oczkiem w głowie, później to się zmieniło na prywatność, więc przegadaliśmy temat prywatności i zmian w cookie, a przy okazji jeszcze nadeszło, że Analytics się zmienia za całkiem niedługo, więc wydaje się, że połączenie tego wszystkiego w całość będzie takim fajnym spięciem naszej rozmowy.
W nowym Analytics mamy zapowiadaną jako najlepsze rozwiązanie atrybucję opartą o dane. Czy mógłbyś trochę więcej o tym opowiedzieć w kontekście czego, czy jest to jakaś rewolucja i jak to się wszystko łączy, jak się w ogóle łączy modelowanie atrybucji z tym, że cookies będą żyły coraz krócej?
Pozwolisz, że ja to pytanie podzielę na dwie części. Zanim przejdę do atrybucji opartej o dane, najpierw zastanówmy się nad tym, o co chodzi w atrybucji. Atrybucja, czyli przypisywanie wygenerowanych przez ruch konwersji poszczególnym źródłom ruchu, czyli w praktyce atrybucja zaczyna się od zbierania danych, jakie wejścia na stronę, z jakich źródeł, poprzedziły konwersję. Aby to zrobić, musimy takiego użytkownika, oczywiście, śledzić, bo inaczej nie powiążemy ze sobą tych wejść z momentem dokonania konwersji, natomiast do tego w zupełności wystarczą first party cookie czy jakikolwiek first party storage. Owszem, do śledzenia wyświetleń potrzebne są first party cookie, ale żeby już nie rozwlekać tego tematu, to obecnie w praktyce nie istnieje poza zamkniętym systemem reklamowym, czyli owszem, w Google Ads widzimy wyświetlenia i konwersję po wyświetleniach. Podobnie widzimy to w Facebooku, ale już w Google Analytics takie całościowe podejście, spięcie tych wyświetleń z różnych systemów obecnie jest praktycznie niemożliwe. W momencie więc, kiedy będziemy chcieli powiązać wyłącznie wizyty na stronie z konwersjami, to w dalszym ciągu te dane będziemy mogli zbierać w oparciu o first party cookies, oczywiście, pod warunkiem, że zastosujemy tutaj śledzenie server-to-server, dzięki któremu przeglądarki nie będą tych naszych skryptowych ciasteczek w ciągu tygodnia kasowały.
Warto też zwrócić uwagę na to, że w Unii Europejskiej obecnie trwają prace nad kolejną nowelizacją regulacji ePrivacy i w tym projekcie, który wydaje się już być ostatecznym, pojawia się stwierdzenie, że mierzenie ruchu na stronie stanowi uzasadniony interes jej właściciela. Tutaj jest taki legitimate interest. W praktyce to oznacza, że jeżeli będziemy chcieli zbierać dane wyłącznie do celów analitycznych, to będziemy to mogli robić bez zgody opt-in. Nie wiem, czy ta zgoda będzie potrzebna. Prawdopodobnie będzie tam tak zwany opt-out, czyli użytkownik będzie mógł sobie coś tam odklikać, że ja nie chcę tego Analytics, ale domyślnie to najprawdopodobniej będzie mogło być zbierane. Tam jest jeszcze parę warunków. To musi być tak zwane śledzenie prywatne, czyli przypuszczalnie ten identyfikator transakcji w Google Analytics będzie musiał być zanonimizowany tak, abyśmy nie mogli śledzić poszczególnych transakcji, natomiast wiele wskazuje na to, że w przyszłości w znacznej mierze analitykę będziemy mogli prowadzić właśnie bez zgody użytkownika.
Tak naprawdę więc sama atrybucja nie powinna jakoś szczególnie ucierpieć przez te zmiany, oczywiście, jeśli dostosujemy się i technologicznie, i prawnie do tych wymogów. Tak, jak powiedziałem, jeśli to ePrivacy przejdzie, to będziemy mogli zbierać te dane bez zgody. Zresztą tu już niektórzy regulatorzy, na przykład francuscy, wyrazili zgodę dla niektórych systemów w bardzo ograniczonym zakresie właśnie na uruchamianie skryptów śledzących analitycznych bez konieczności stosowania właśnie tego cookie walla, tego banneru cookie. Ten proces więc następuje. Analityka i w tym zakresie również atrybucja będzie najprawdopodobniej znacznie łatwiejsza do prowadzenia w przyszłości niż obecnie
Jeśli natomiast chodzi o atrybucję opartą o dane – czy ona jest najlepsza? Powiem tak: ona przypuszczalnie będzie lepsza niż każda atrybucja oparta o single touch point, czyli taka atrybucja, jak na przykład last click, dlatego że atrybucja oparta o dane uwzględnia wszystkie interakcje, które miały miejsce na ścieżce. Natomiast model atrybucji oparty o dane takie, jak stosuje Google, który wykorzystuje metody algorytmiczne, czyli Google nie mówi, że tutaj stosujemy regułę, że każdemu dajemy po równo czy też najbardziej wartościowa jest ta pierwsza i ostatnia interakcja, a te pośrodku mają trochę mniejsze znaczenie, tylko Google na podstawie różnego rodzaju modeli matematycznych próbuje odgadnąć, które tak naprawdę z tych touchpointów na ścieżce użytkownika miały największe znaczenie dla konwersji.
Przy skuteczności tego modelu pojawia się pewien podstawowy problem. Otóż cała analityka internetowa oparta jest tak naprawdę właśnie o śledzenie konwersji, czyli o mierzenie korelacji między kliknięciem a konwersją, czyli ktoś kliknął, następnego dnia kupił i my mówimy, że kupił dlatego, że kliknął. Gdy sobie przeczytamy, jak działa model atrybucji data driven w Google, to nam podają taką informację, że Google patrzy i widzi, że na przykład, jeżeli na ścieżce użytkownika była kampania w wyszukiwarce oraz kampania e-mail, to jest prawdopodobieństwo konwersji 2%, a jeśli jeszcze dodatkowo widzi, że na tej ścieżce był display, to prawdopodobieństwo konwersji to 3%. W związku z tym Google mówi: „No, to w takim razie display zwiększa to prawdopodobieństwo konwersji z dwóch do trzech procent, czyli o połowę”.
Ja to czasami tak żartobliwie przedstawiam na nieco innych danych z Urzędu Statystycznego, które mówią, że jeżeli 2 ludzi stworzy związek i znajdzie sobie dom, to z 2% prawdopodobieństwem będą mieli dziecko, a jeśli w okolicy dodatkowo są bociany, to prawdopodobieństwo rośnie do 3%. No i teraz pytanie, czy my rzeczywiście uważamy, że obecność bocianów zwiększa przyrost naturalny o połowę? Oczywiście wiemy, że tak prawdopodobnie nie jest, że to wynika z tego, że w mieście po prostu nie ma bocianów, a na wsi z zupełnie innych przyczyn jest wyższy przyrost naturalny.
Jak widzisz, ten problem, że my, śledząc konwersję, tak naprawdę mierzymy tylko korelację, nie zawsze będzie działał. Niestety, atrybucja oparta o dane tego problemu nie rozwiązuje, dlatego że mamy tak naprawdę zmierzyć, jaki wpływ miała poszczególna interakcja. My musimy wykonać próbę z grupą kontrolną, czyli musimy części użytkowników pokazać reklamę, części użytkowników tę reklamę zablokować i porównać, na ile zmieniły się konwersje w tych 2 grupach.
Wydaje mi się, że tego rodzaju atrybucja nigdy nie będzie możliwa w systemie analitycznym, czy to będzie system Google Analytics, czy jakikolwiek inny, dlatego, że aby taki test wykonać, musimy mieć kontrolę nad reklamami. Na przykład tego rodzaju atrybucję, właśnie opartą o randomizowany test z grupą kontrolną, zaczął, dopóki nie przyszło Apple z app tracking transparency, tworzyć u siebie Facebook. On powiedział: „My owszem, raportujemy” te tysiące konwersji to problem, który bardzo często słyszę. Facebook nam mówi, że mamy 10 000 konwersji, w Analytics widzimy 300. Kto kłamie? Facebook pokazuje nam te wszystkie konwersje, które miały miejsce po kliknięciu, wyświetleniu, ale on, i to też trzeba naprawdę docenić, w pewnym momencie powiedział: „Mamy świadomość tego, że to nie są konwersje inkrementalne. Owszem, to były konwersje, które nastąpiły po obejrzeniu reklamy, ale dzięki tej niej ty uzyskałeś tylko pewną część”. Właśnie takimi testami, wyłączając części użytkowników z reklamy i patrząc, na ile tam spada ta konwersja, Facebook modelował te faktyczne wzrosty.
Google również udostępnia tak zwane eksperymenty Conversion Lift w swoim systemie i działa to dokładnie tak samo. Puszczana jest reklama na YouTube, w grupie kontrolnej jest ona blokowana, i następnie porównywana jest liczba konwersji w tych 2 grupach. Dzięki temu możemy stwierdzić, że OK, dzięki reklamie na YouTube może to nie jest te 10 000 konwersji po wyświetleniu, które mamy zaraportowane, ale rzeczywiście nam o ten, powiedzmy, 1 000 konwersji w tej grupie to urosło. Z tego powodu tak naprawdę każda atrybucja niezależnie od tego, jak bardzo zaawansowany algorytm matematyczny będzie zastosowany, atrybucja, która nie będzie wykorzystywała tych randomizowanych testów, niestety, będzie obarczona tym błędem.
Jeżeli chcemy to sprawdzić, wystarczy prosty test. Jeżeli prowadzisz kampanię na własny brand w wyszukiwarce Google, czyli jest na przykład Answear i ktoś wpisuje to, wyświetla się reklama, klika ją, przechodzi na stronę i kupuje. My, oczywiście, wiemy, że wpływ tych reklam na konwersję jest stosunkowo znikomy, bo one żadnej tutaj intencji nie generują. One po prostu znalazły…
Są na górze.
Są na górze, dokładnie. Znalazły się na ścieżce. Natomiast w większości przypadków algorytm data driven Google tym konwersjom najprawdopodobniej dołoży jeszcze więcej wartości niż na przykład w modelu last click, a nawet, jeżeli gdzieś widać jakieś obniżenia tej wartości, to są one niewielkie.
My kiedyś próbowaliśmy robić tego rodzaju testy z grupą kontrolną, czy też testy geo, żeby wyłączyć, i one raczej wykazywały, że nawet, jeśli jest jakiś wpływ tych reklam na brand, to jest on, powiedzmy, o rząd wielkości niższy, niż te konwersje, które są raportowane po kliknięciu, dlatego że większość z nich tak czy tak nastąpiłaby, gdyby reklamy nie było, bo użytkownik by znalazł link organiczny, kliknął w niego, i w ten sposób trafił na stronę.
Żeby to więc podsumować: jeśli chodzi o analitykę, o atrybucję, to te wszystkie zmiany raczej nie powinny doprowadzić do ich uśmiercenia. Owszem, jeżeli ten standard PCM i również te privacy budgets w analityce zmniejszą pewną granularność albo możliwość łączenia ze sobą wszystkich tych kropek, to niektórych raportów już nie będziemy mieli. Nic jednak nie wskazuje na to, żeby to w jakiś znaczący sposób pogorszyło nasze możliwości wyciągania wartościowych wniosków z analizy.
Co do atrybucji opartej o dane powiem tak: my ją stosujemy. Nie ma żadnych powodów, żeby uważać, że ona będzie gorsza, niż atrybucja w modelu liniowym, w którym po prostu arbitralnie każdej interakcji przypisujemy to samo, natomiast trzeba pamiętać, że to nie jest panaceum. Tak naprawdę do realnego pomiaru tego, co daje nam reklama, musimy wykonywać testy z grupą kontrolną. Tutaj, pozwolisz, powiem jeszcze jedną rzecz.
Oczywiście.
Bo tak widzę, że chciałbyś, żebym skończył, ale…
Wcale nie!
To jednak źle to odczytuję. Na ostatniej konferencji Google Marketing Live Google zapowiedział, że testy conversion lift zostaną wprowadzone na szerszą skalę do systemu reklamowego Google i również zostaną wprowadzone testy geo.
Na czym polegał test conversion lift? Był, oczywiście, oparty o ciasteczka i użytkowników. Dla części użytkowników zalogowanych w YouTube, ale też opartych o ciasteczka, były reklamy blokowane. W przypadku YouTube to było łatwe, bo tam rzeczywiście procent zalogowanych użytkowników jest duży. Natomiast taka reklama display, gdzie po prostu chodzimy po stronach często niezalogowani – to tam już jest trudniej. Jest jednak sposób, który polega na tym, że my, na przykład, reklamę w połowie Polski puścimy i później spróbujemy zobaczyć, czy nam w tej połowie Polski rzeczywiście sprzedaż wzrosła niezależnie od tego, czy my tam widzimy te konwersje, czy te ciasteczka były wyczyszczone, czy mieliśmy tutaj efekt post view. Dzięki takiemu pomiarowi będziemy w stanie stwierdzić, ile rzeczywiście dostaliśmy dodatkowo wartości dzięki tej reklamie.
Tutaj więc analityka znowu wraca do metod ekonometrycznych, tak, jak zresztą to się odbywało przez dekady. Tradycyjna reklama mierzona jest właśnie tego rodzaju metodami: jest puszczana kampania telewizyjna i mierzy się jej korelację ze sprzedażą a nie poprzez łączenie widzów, kto oglądał telewizję, i co kupił.
Tutaj więc na pewno czeka nas jeszcze wiele ciekawych zmian, natomiast Google Analytics jako system, który nad reklamami kontroli nie ma, takiej możliwości miał nie będzie. Liczę na to, że ta atrybucja, która obecnie jest w GA4, która obecnie jest absolutnie niecustomizowalna, jednak w przyszłości też będzie mogła być dostosowana do tej wiedzy, którą my mamy właśnie z tego rodzaju eksperymentów i będzie można korygować, na przykład, pewne kampanie, które mają większy lub mniejszy wpływ, niż by wynikało z tych danych, które widzi sam Analytics. Najkrócej więc – myślę, że atrybucja nie jest martwa, natomiast musimy teraz poczekać na odpowiednie narzędzia do jej mierzenia, a dobra wiadomość jest taka, że te narzędzia rzeczywiście zaczynają powstawać.
Mega dobrze mi się słuchało tego, co mówisz i słuchałem z dużym zaciekawieniem. Myślę, że dzisiaj padło też dużo takich rzeczy, które z jednej strony trochę pewnie mitów obaliły, trochę prawd potwierdziły i myślę też, że naszym słuchaczom dadzą dużo do myślenia.
Na koniec zapytam cię o literaturę dodatkową. Czy są jakieś opracowania, książki, wideo, kursy, cokolwiek innego, co mogłoby się przydać osobom, które chciałyby trochę pogłębić swoją wiedzę?
Wspomniałem już o tych filmikach na kanale Google Chrome Developers dotyczących privacy sandbox. Myślę, że jeśli kogoś ten temat bardzo interesuje, to na pewno jest pierwsza rzecz, którą warto obejrzeć. Ja w ogóle nie jestem zwolennikiem treści wideo, ale one są naprawdę fajnie i konkretnie zrobione bez zbędnych gier wstępnych i naprawdę jest to bardzo konkretnie opisane.
Polecam także książkę Davida Sumptera Osaczeni przez liczby. To nie jest pozycja o analityce. Ona jest sprzedawana jako książka o aferze Cambridge Analytica. Tam na ten temat jest jeden rozdział, natomiast opisuje ona faktyczne możliwości i mity narosłe wokół możliwości algorytmów stosowanych między innymi w marketingu. Myślę, że przeczytanie jej daje dużą dozę zdrowego rozsądku w ocenie tego, co można, a czego nie można zrobić, wykorzystując dane w Internecie. Na pewno mogę polecić ten tytuł.
W takim razie ostatnie pytanie do ciebie – pytanie, które zadaję każdemu gościowi, z którym miałem okazję porozmawiać. Gdybyś miał naszych słuchaczy zostawić z jedną myślą, apelem, hasłem, czyli taką jedną rzeczą, którą każdy po przesłuchaniu tego odcinka powinien ze sobą zostawić na dłużej, to co by to było?
Żeby to podsumować – przede wszystkim trzeba zbierać jak najlepsze dane, nadążając za technologią i zmianami w prawie. Jednocześnie, kiedy te dane analizujemy, pamiętajmy, że to jest tylko pewna próbka, pewien wycinek rzeczywistości i że ta korelacja to nie jest dowód związku przyczynowo-skutkowego. Nie popadajmy w obsesję danych. Przez to też nie martwmy się aż tak bardzo, że jakaś część danych obecnie została nam zabrana.
Na koniec może powiem to, co pamiętasz, z tej części, kiedy mówiłem o kreatywności, że tak naprawdę warto, aby zwrócić się w kierunku właściwej komunikacji. Pamiętajmy, że tak, jak żadna reklama nie zastąpi dobrego produktu, tak samo żadne targetowanie i dane nie zastąpią dobrej kreacji i komunikacji. Liczę na to, że coraz większa część świata marketingowego trochę zostanie do tego zmuszona, ale też w dużej części świadomie zwróci się w tym kierunku.
Super, Witoldzie! Dziękuję za twoją wiedzę i za naszą rozmowę. Trzymaj się i do usłyszenia następnym razem.
Cześć.