facebook
Myślisz o wykupieniu artykułów sponsorowanych❓ Dowiedz się, jakie są ich plusy, minusy i gdzie publikować!
Artykuły sponsorowane to treści, za które płacisz, publikowane na stronach zewnętrznych wydawców. Dzięki nim możesz dotrzeć do szerszej publiki, która możliwe, że jeszcze nie wie o istnieniu Twojej firmy. Najczęściej artykuły sponsorowane to poradniki, newsy lub wywiady z kimś z Twojej firmy.
Z punktu widzenia SEO artykuły sponsorowane to nie tylko dotarcie swoim contentem do nowych odbiorców, ale też pozyskanie wartościowych linków. 🔗
Jakie są plusy reklamy przez artykuły sponsorowane❓
Dzięki nim stawiasz się w roli eksperta. Jeśli wybierzesz dobre miejsce do promocji, np. popularny blog powiązany tematycznie z działalnością naszej firmy, trafisz z przekazem do odbiorców zainteresowanych Twoim produktem lub usługami.
Co więcej, publikowanie artykułów sponsorowanych w popularnych mediach może pozwolić Twojej stronie zaistnieć w Google. Tego typu serwisy mają zwykle dużą żywotność, a wiele z nich, jeśli to duże portale, ma też wysokie zaufanie ze strony Google.
Przy kupowaniu linka z artykułu sponsorowanego zwróć uwagę, czy jest on “wynajmowany” na pewien czas, czy bezterminowo. Ma to znaczenie przy budowaniu strategii linkbuildingowej. 📈
A co z minusami❓
Przede wszystkim cena. Sponsorowany content wymaga dużego nakładu czasu i pieniędzy. Dodatkowo do jego tworzenia musisz się naprawdę przyłożyć. Jeżeli Twój artykuł będzie nastawiony jedynie na reklamę firmy, nie da odbiorcom wartości lub po prostu zanudzi czytelnika, to zmarnujesz swój budżet i zasoby. Nikt nie chce czytać banalnych artykułów, z przemyconą promocją firmy, w co drugim akapicie.
Musisz skupić się na przekazaniu odbiorcy wiedzy lub rozrywki, a on możliwe, że odwdzięczy się konwersją. Pamiętaj jednak, że konwersja nie jest jedynym celem artykułów sponsorowanych. W zależności od stylu, w jakim piszesz artykuł i miejscu, w którym go publikujesz, efekt może być różny. Jedne artykuły prowadzą do konwersji, inne do zwiększenia świadomości marki a jeszcze inne do ocieplenia jej wizerunku.
Pamiętaj, że o ile artykuł nie będzie stale promowany przez medium, w którym go opublikujesz, z czasem straci na wartości. Przez pojawienie się nowych wpisów będzie on spadał coraz bardziej w głąb strony, co spowoduje, że mniej osób go zauważy. 🔎
Gdzie publikować artykuły sponsorowane❓
Masz olbrzymi wybór miejsc do publikacji. Tak naprawdę każdy blog, czy magazyn internetowy, o ile oferuje zamieszczanie artykułów sponsorowanych, jest dla Ciebie potencjalnym miejscem publikacji. Należy jednak skupić się na portalach powiązanych tematycznie z artykułem oraz z jak największym ruchem i silnym profilem linkowym.
Możesz również sam(a) znaleźć miejsce publikacji lub skorzystać z gotowych platform takich jak WhitePress lub Linkhouse. Strony te są pośrednikami między reklamodawcami i wydawcami.
Pamiętaj, że w zależności od portalu, jaki wybierzesz, cena będzie różna. Więcej zapłacisz za artykuł w Forbesie czy Onecie niż na niszowym blogu. 💰
Co zrobić, aby link w artykule sponsorowanym był skuteczny❓
Google teoretycznie stara się weryfikować czy link jest naturalny, czy kupiony. Tobie powinno zależeć na tym, aby uznał go za powstały bez Twojej ingerencji. Aby przekonać do siebie Google, ważne są takie rzeczy jak liczba linków wychodzących z danej podstrony i całej domeny, jej treść, jakość strony oraz tekst zakotwiczenia linka, czyli anchor text. Kluczowe przy ocenie miejsca pod publikację artykułu sponsorowanego jest także przeanalizowanie profilu linków domeny, a także umiejscowienia wpisu w strukturze strony. Jeśli masz możliwość skorzystania z dodatkowego linkowania wewnętrznego i/lub umieszczenia go na stronie głównej, lub wyeksponowanej kategorii, warto to rozważyć.
Treść podstrony powinna być powiązana z tematem linka. Nie jest to warunek konieczny, ale profil linków tworzony w myśl tej zasady może być po prostu trwalszy w dłuższej perspektywie czasu. Jeśli więc link prowadzi do strony agencji marketingowej, a Twój sponsorowany artykuł jest o zrobieniu idealnej jajecznicy, ryzykujesz, że Google uzna go za sztuczny lub nieistotny i z czasem zdewaluuje jego moc. Wybieraj też miejsca z niską ilością linków wychodzących. Im mniej linków wychodzących, tym więcej autorytetu może przenieść każdy z nich. Ponadto istnieje mniejsze ryzyko, że strona będzie postrzegana jako spam. 🛑
Niestety nie wiadomo, jak w przyszłości Google będzie traktowało sponsorowany content.
#seo #content
Artykuły sponsorowane to treści, za które płacisz, publikowane na stronach zewnętrznych wydawców. Dzięki nim możesz dotrzeć do szerszej publiki, która możliwe, że jeszcze nie wie o istnieniu Twojej firmy. Najczęściej artykuły sponsorowane to poradniki, newsy lub wywiady z kimś z Twojej firmy.
Z punktu widzenia SEO artykuły sponsorowane to nie tylko dotarcie swoim contentem do nowych odbiorców, ale też pozyskanie wartościowych linków. 🔗
Jakie są plusy reklamy przez artykuły sponsorowane❓
Dzięki nim stawiasz się w roli eksperta. Jeśli wybierzesz dobre miejsce do promocji, np. popularny blog powiązany tematycznie z działalnością naszej firmy, trafisz z przekazem do odbiorców zainteresowanych Twoim produktem lub usługami.
Co więcej, publikowanie artykułów sponsorowanych w popularnych mediach może pozwolić Twojej stronie zaistnieć w Google. Tego typu serwisy mają zwykle dużą żywotność, a wiele z nich, jeśli to duże portale, ma też wysokie zaufanie ze strony Google.
Przy kupowaniu linka z artykułu sponsorowanego zwróć uwagę, czy jest on “wynajmowany” na pewien czas, czy bezterminowo. Ma to znaczenie przy budowaniu strategii linkbuildingowej. 📈
A co z minusami❓
Przede wszystkim cena. Sponsorowany content wymaga dużego nakładu czasu i pieniędzy. Dodatkowo do jego tworzenia musisz się naprawdę przyłożyć. Jeżeli Twój artykuł będzie nastawiony jedynie na reklamę firmy, nie da odbiorcom wartości lub po prostu zanudzi czytelnika, to zmarnujesz swój budżet i zasoby. Nikt nie chce czytać banalnych artykułów, z przemyconą promocją firmy, w co drugim akapicie.
Musisz skupić się na przekazaniu odbiorcy wiedzy lub rozrywki, a on możliwe, że odwdzięczy się konwersją. Pamiętaj jednak, że konwersja nie jest jedynym celem artykułów sponsorowanych. W zależności od stylu, w jakim piszesz artykuł i miejscu, w którym go publikujesz, efekt może być różny. Jedne artykuły prowadzą do konwersji, inne do zwiększenia świadomości marki a jeszcze inne do ocieplenia jej wizerunku.
Pamiętaj, że o ile artykuł nie będzie stale promowany przez medium, w którym go opublikujesz, z czasem straci na wartości. Przez pojawienie się nowych wpisów będzie on spadał coraz bardziej w głąb strony, co spowoduje, że mniej osób go zauważy. 🔎
Gdzie publikować artykuły sponsorowane❓
Masz olbrzymi wybór miejsc do publikacji. Tak naprawdę każdy blog, czy magazyn internetowy, o ile oferuje zamieszczanie artykułów sponsorowanych, jest dla Ciebie potencjalnym miejscem publikacji. Należy jednak skupić się na portalach powiązanych tematycznie z artykułem oraz z jak największym ruchem i silnym profilem linkowym.
Możesz również sam(a) znaleźć miejsce publikacji lub skorzystać z gotowych platform takich jak WhitePress lub Linkhouse. Strony te są pośrednikami między reklamodawcami i wydawcami.
Pamiętaj, że w zależności od portalu, jaki wybierzesz, cena będzie różna. Więcej zapłacisz za artykuł w Forbesie czy Onecie niż na niszowym blogu. 💰
Co zrobić, aby link w artykule sponsorowanym był skuteczny❓
Google teoretycznie stara się weryfikować czy link jest naturalny, czy kupiony. Tobie powinno zależeć na tym, aby uznał go za powstały bez Twojej ingerencji. Aby przekonać do siebie Google, ważne są takie rzeczy jak liczba linków wychodzących z danej podstrony i całej domeny, jej treść, jakość strony oraz tekst zakotwiczenia linka, czyli anchor text. Kluczowe przy ocenie miejsca pod publikację artykułu sponsorowanego jest także przeanalizowanie profilu linków domeny, a także umiejscowienia wpisu w strukturze strony. Jeśli masz możliwość skorzystania z dodatkowego linkowania wewnętrznego i/lub umieszczenia go na stronie głównej, lub wyeksponowanej kategorii, warto to rozważyć.
Treść podstrony powinna być powiązana z tematem linka. Nie jest to warunek konieczny, ale profil linków tworzony w myśl tej zasady może być po prostu trwalszy w dłuższej perspektywie czasu. Jeśli więc link prowadzi do strony agencji marketingowej, a Twój sponsorowany artykuł jest o zrobieniu idealnej jajecznicy, ryzykujesz, że Google uzna go za sztuczny lub nieistotny i z czasem zdewaluuje jego moc. Wybieraj też miejsca z niską ilością linków wychodzących. Im mniej linków wychodzących, tym więcej autorytetu może przenieść każdy z nich. Ponadto istnieje mniejsze ryzyko, że strona będzie postrzegana jako spam. 🛑
Niestety nie wiadomo, jak w przyszłości Google będzie traktowało sponsorowany content.
#seo #content
2023-06-28, 15:43
facebook
Na naszym blogu właśnie pojawił się wpis o tym jak tworzyć dobre meta description oraz jego roli w SEO!
Link do artykułu znajdziecie w komentarzu. ⬇
Link do artykułu znajdziecie w komentarzu. ⬇
2023-06-22, 17:09
facebook
Prezentacja Szymon Slowik zdaniem głosów publiczności zajęła drugie miejsce na tegorocznej konferencji semKRK!
Gratulujemy zarówno Szymonowi jak i Seba Heymann oraz Damian Rams za zajęcie kolejno pierwszego i trzeciego miejsca!
Gratulujemy zarówno Szymonowi jak i Seba Heymann oraz Damian Rams za zajęcie kolejno pierwszego i trzeciego miejsca!
2023-06-16, 11:11
facebook
Meta tag robots to dyrektywy, którymi kierują się roboty Google przy odwiedzaniu Twojej strony. 🤖
To dzięki nim roboty wiedzą na przykład, które strony indeksować.
Istnieje wiele reguł, które można zawrzeć w tym tagu. Omówmy poszczególne z nich:
🟥 index — informuje robota, że strona ma być indeksowana,
🟥 noindex — informuje robota, że strona nie ma być indeksowana,
🟥 nofollow — informuje robota, że ma nie podążać w procesie crawlowania za linkami znajdującymi się w obrębie danej strony oraz że linki mają nie przenosić reputacji (chociaż w praktyce bardzo rzadko jest stosowany),
🟥 all — konfiguracja domyślna informująca robota Google, że strona może być bez ograniczeń indeksowana i crawlowana,
🟥 none — połączenie dyrektyw noindex i nofollow. Informuje robota Google, że strona nie ma być indeksowana, a jej linki crawlowane,
🟥 nosnippet — blokuje wyświetlanie dodatkowych informacji o stronie w wynikach wyszukiwania (a także np. Google Discover lub Image Search) - np. przeciwdziała automatycznemu generowaniu opisu strony na podstawie jej treści,
🟥 max-snippet — określa ile znaków ma wyświetlać snippet strony,
🟥 noarchive — informuje robota Google, że nie ma zachowywać kopii strony w pamięci podręcznej i nie może jej zaserwować użytkownikom,
🟥 max-image-preview — określa rozmiar, w jakim jest wyświetlany podgląd grafiki,
🟥 max-video-preview — definiuje, jaki może być maksymalny czas trwania fragmentu wideo w wynikach wyszukiwania,
🟥 unavailable_after - dzięki tej dyrektywie jesteś w stanie wyznaczyć do kiedy strona może być wyświetlana w wynikach wyszukiwania,
🟥 notranslate — wyłącza opcje proponowania tłumaczenia strony na język ojczysty użytkownika,
🟥 noimageindex - blokuje indeksowanie obrazów ze strony,
🟥 nositelinkssearchbox - ten tag uniemożliwia wyświetlanie pola wyszukiwania z linkami do podstron w wynikach wyszukiwania dotyczących tej strony,
🟥 indexifembedded - dzięki zastosowaniu tego tagu Google może indeksować treść strony umieszczonej na innej stronie za pomocą elementów iframes lub podobnych tagów HTML pomimo zastosowania reguły noindex.
Jak widać, dyrektyw jest sporo. Można je wykorzystywać równolegle (np. meta name=”robots” content=”index, noarchive”). Dobra znajomość logiki ich działania, szczególnie tych, które odnoszą się do procesu indeksowania, jest bardzo istotna w procesie zarządzania stroną w Google.
#seo #pozycjonowanie #metatagrobots
To dzięki nim roboty wiedzą na przykład, które strony indeksować.
Istnieje wiele reguł, które można zawrzeć w tym tagu. Omówmy poszczególne z nich:
🟥 index — informuje robota, że strona ma być indeksowana,
🟥 noindex — informuje robota, że strona nie ma być indeksowana,
🟥 nofollow — informuje robota, że ma nie podążać w procesie crawlowania za linkami znajdującymi się w obrębie danej strony oraz że linki mają nie przenosić reputacji (chociaż w praktyce bardzo rzadko jest stosowany),
🟥 all — konfiguracja domyślna informująca robota Google, że strona może być bez ograniczeń indeksowana i crawlowana,
🟥 none — połączenie dyrektyw noindex i nofollow. Informuje robota Google, że strona nie ma być indeksowana, a jej linki crawlowane,
🟥 nosnippet — blokuje wyświetlanie dodatkowych informacji o stronie w wynikach wyszukiwania (a także np. Google Discover lub Image Search) - np. przeciwdziała automatycznemu generowaniu opisu strony na podstawie jej treści,
🟥 max-snippet — określa ile znaków ma wyświetlać snippet strony,
🟥 noarchive — informuje robota Google, że nie ma zachowywać kopii strony w pamięci podręcznej i nie może jej zaserwować użytkownikom,
🟥 max-image-preview — określa rozmiar, w jakim jest wyświetlany podgląd grafiki,
🟥 max-video-preview — definiuje, jaki może być maksymalny czas trwania fragmentu wideo w wynikach wyszukiwania,
🟥 unavailable_after - dzięki tej dyrektywie jesteś w stanie wyznaczyć do kiedy strona może być wyświetlana w wynikach wyszukiwania,
🟥 notranslate — wyłącza opcje proponowania tłumaczenia strony na język ojczysty użytkownika,
🟥 noimageindex - blokuje indeksowanie obrazów ze strony,
🟥 nositelinkssearchbox - ten tag uniemożliwia wyświetlanie pola wyszukiwania z linkami do podstron w wynikach wyszukiwania dotyczących tej strony,
🟥 indexifembedded - dzięki zastosowaniu tego tagu Google może indeksować treść strony umieszczonej na innej stronie za pomocą elementów iframes lub podobnych tagów HTML pomimo zastosowania reguły noindex.
Jak widać, dyrektyw jest sporo. Można je wykorzystywać równolegle (np. meta name=”robots” content=”index, noarchive”). Dobra znajomość logiki ich działania, szczególnie tych, które odnoszą się do procesu indeksowania, jest bardzo istotna w procesie zarządzania stroną w Google.
#seo #pozycjonowanie #metatagrobots
2023-06-15, 14:18
facebook
Indeksowanie to pierwszy krok w stronę pozycjonowania serwisu.📈 Bez tego Twoje działania nie mają sensu, gdyż nawet jeśli rozgryziesz algorytm Google, to bez zaindeksowania Twoja strona nadal będzie niewidoczna. Google po prostu nie będzie miał jej w swojej bazie danych, przez co o jej istnieniu nikt w wyszukiwarce nie usłyszy.
Do indeksacji możesz podejść na kilka sposobów. Wybierzmy ten, który jest dla Ciebie najwygodniejszy. Może się zdarzyć, że jedno z rozwiązań nie zadziała tak, jak chciałeś, dlatego właśnie warto znać je wszystkie. Pamiętaj, że te poniższe sposoby służą jedynie do pomocy robotom w znajdowaniu nowych linków. To czy zostaną one zaindeksowane, zależy jedynie od algorytmu.
Jakie są metody indeksacji? 📋
🟥 Pierwszy sposób to zdecydowanie najprostsze rozwiązanie — dodanie URL-a do Google Search Console. Wystarczy przejść do sekcji „sprawdzenie adresu URL”, wkleić pełny adres, który chcesz zaindeksować i kliknąć „poproś o zaindeksowanie”.
🟥 Druga metoda to dodanie adresu do mapy witryny, czyli pliku XML. Prawie na pewno Twój serwis ma swoją mapę, a jeśli nie, to koniecznie ją stwórz. Pomaga ona w indeksacji strony. Roboty Google czytają mapę i na jej podstawie zapisują adresy URL do kolejki crawlowania, które musi nastąpić przed decyzją o indeksowaniu poszczególnych zasobów. Niestety nie jesteśmy w stanie zmusić robotów do indeksacji, możemy jedynie zwiększyć na nią szansę.
🟥 Linkowanie wewnętrzne — wystarczy, że nowy adres na stronie będzie podlinkowany z innego miejsca np. z kategorii, strony głównej lub tagu. Wtedy Google crawlując stronę natknie się na ten link i go zapisze.
🟥 Backlinki — działa to na tej samej zasadzie co linkowanie wewnętrzne, z tym że w przypadku backlinków, chodzi o linki z serwisów zewnętrznych. Ktoś linkuje nowy artykuł ze swojej strony, a Google skanując jego stronę, trafia na ten link i dodaje URL do kolejki adresów do sprawdzenia.
🟥 Publikacje w feedzie RSS — feedy RSS to miejsca, w którym pojawiają się najnowsze wpisy blogowe, lub ich części np. same nagłówki. Pozwala to użytkownikowi czytać, bądź otrzymywać powiadomienia co do nowych treści bez konieczności wchodzenia na bloga. W przypadku indeksowania, po dodaniu linku do bloga w feedzie RSS, możliwe, że Google zaindeksuje adres w swojej bazie danych.
🟥 Naked URL — naked url to zwykły adres wklejony w treść. Nie jest on ukryty pod anchor textem. Gdy wkleisz adres w treść strony, w czasie crawlowania Google się na niego natknie, co doprowadzi do jego indeksacji.
Warto skorzystać ze wszystkich możliwych metod, aby zwiększyć szansę na jak najszybszą indeksację. Dodatkowo zadbaj o poprawne renderowanie strony i odpowiedź serwera ze statusem 200. Duplicate content względem innych podstron to także spory problem. Jeśli tego nie dopilnujesz, to żadna z powyższych metod nie zagwarantuje Ci poprawnej indeksacji.
Pamiętaj, że indeksowanie może trwać, a samo zgłoszenie linku to nie koniec procesu. Po drodze mogą wystąpić błędy, o których dowiesz się z panelu Google Search Console. ✅
W jakim najkrótszym czasie udało Ci się zaindeksować stronę? Podziel się tym z nami w komentarzu!
#SEO #Pozycjonowanie #Indeksacja
Do indeksacji możesz podejść na kilka sposobów. Wybierzmy ten, który jest dla Ciebie najwygodniejszy. Może się zdarzyć, że jedno z rozwiązań nie zadziała tak, jak chciałeś, dlatego właśnie warto znać je wszystkie. Pamiętaj, że te poniższe sposoby służą jedynie do pomocy robotom w znajdowaniu nowych linków. To czy zostaną one zaindeksowane, zależy jedynie od algorytmu.
Jakie są metody indeksacji? 📋
🟥 Pierwszy sposób to zdecydowanie najprostsze rozwiązanie — dodanie URL-a do Google Search Console. Wystarczy przejść do sekcji „sprawdzenie adresu URL”, wkleić pełny adres, który chcesz zaindeksować i kliknąć „poproś o zaindeksowanie”.
🟥 Druga metoda to dodanie adresu do mapy witryny, czyli pliku XML. Prawie na pewno Twój serwis ma swoją mapę, a jeśli nie, to koniecznie ją stwórz. Pomaga ona w indeksacji strony. Roboty Google czytają mapę i na jej podstawie zapisują adresy URL do kolejki crawlowania, które musi nastąpić przed decyzją o indeksowaniu poszczególnych zasobów. Niestety nie jesteśmy w stanie zmusić robotów do indeksacji, możemy jedynie zwiększyć na nią szansę.
🟥 Linkowanie wewnętrzne — wystarczy, że nowy adres na stronie będzie podlinkowany z innego miejsca np. z kategorii, strony głównej lub tagu. Wtedy Google crawlując stronę natknie się na ten link i go zapisze.
🟥 Backlinki — działa to na tej samej zasadzie co linkowanie wewnętrzne, z tym że w przypadku backlinków, chodzi o linki z serwisów zewnętrznych. Ktoś linkuje nowy artykuł ze swojej strony, a Google skanując jego stronę, trafia na ten link i dodaje URL do kolejki adresów do sprawdzenia.
🟥 Publikacje w feedzie RSS — feedy RSS to miejsca, w którym pojawiają się najnowsze wpisy blogowe, lub ich części np. same nagłówki. Pozwala to użytkownikowi czytać, bądź otrzymywać powiadomienia co do nowych treści bez konieczności wchodzenia na bloga. W przypadku indeksowania, po dodaniu linku do bloga w feedzie RSS, możliwe, że Google zaindeksuje adres w swojej bazie danych.
🟥 Naked URL — naked url to zwykły adres wklejony w treść. Nie jest on ukryty pod anchor textem. Gdy wkleisz adres w treść strony, w czasie crawlowania Google się na niego natknie, co doprowadzi do jego indeksacji.
Warto skorzystać ze wszystkich możliwych metod, aby zwiększyć szansę na jak najszybszą indeksację. Dodatkowo zadbaj o poprawne renderowanie strony i odpowiedź serwera ze statusem 200. Duplicate content względem innych podstron to także spory problem. Jeśli tego nie dopilnujesz, to żadna z powyższych metod nie zagwarantuje Ci poprawnej indeksacji.
Pamiętaj, że indeksowanie może trwać, a samo zgłoszenie linku to nie koniec procesu. Po drodze mogą wystąpić błędy, o których dowiesz się z panelu Google Search Console. ✅
W jakim najkrótszym czasie udało Ci się zaindeksować stronę? Podziel się tym z nami w komentarzu!
#SEO #Pozycjonowanie #Indeksacja
2023-06-13, 13:26
facebook
Tak było :)
2023-06-07, 21:22
facebook
Co to jest linkowanie wewnętrzne i jak je stosować? 🔗
Linkowanie wewnętrzne to sieć linków wewnątrz jednego serwisu. Są to wszelkie połączenia pomiędzy artykułami, produktami, kategoriami czy innymi podstronami. Jego celem jest ułatwienie użytkownikowi przejścia z punktu A do punktu B na stronie. Z punktu widzenia SEO, przez linki wewnętrzne przenosi się także moc z jednej podstrony na drugą. Ponadto dzięki linkom między stronami Google lepiej rozumie tematyczność serwisu.
Im więcej linków wewnętrznych prowadzi do danego adresu, tym częściej jest on odwiedzany przez roboty Google i tym samym jest dla nich ważniejszy. 🤖
Kolejną rzeczą są kody przekierowań. Dzięki nim określasz, jaki jest przekierowany link. Korzystasz z nich np. kiedy ustawiasz linki jako kanoniczne, czyli oznaczające stronę jako pierwowzór, lub przekierowujesz do innych URL-i. Pozwalają Ci one na pełną kontrolę nad siecią linków wewnątrz serwisu.
Powinno zależeć Ci na linkowaniu do stron ze statusem 200 i kanonicznych. Nie pozwól na sytuację, gdzie linki prowadzą do stron odpowiadających statusem 404.
Istnieje także tag canonical. Informuje on roboty Google o tym, który adres jest oryginalną treścią. Stosuje się go w przypadku gdy różne adresy prezentują tą samą, lub bardzo podobną zawartość. Bez tego tagu może dojść do kanibalizacji treści i Google sam mógłby wybrać, który adres będzie indeksował. Dzięki zastosowaniu tagu canonical to my określamy indeksowaną stronę.
Jeśli chcesz się dowiedzieć więcej o linkach kanonicznych, w komentarzu znajdziesz link do naszego posta poświęconemu właśnie temu zagadnieniu. ⬇
Linkowanie wewnętrzne to sieć linków wewnątrz jednego serwisu. Są to wszelkie połączenia pomiędzy artykułami, produktami, kategoriami czy innymi podstronami. Jego celem jest ułatwienie użytkownikowi przejścia z punktu A do punktu B na stronie. Z punktu widzenia SEO, przez linki wewnętrzne przenosi się także moc z jednej podstrony na drugą. Ponadto dzięki linkom między stronami Google lepiej rozumie tematyczność serwisu.
Im więcej linków wewnętrznych prowadzi do danego adresu, tym częściej jest on odwiedzany przez roboty Google i tym samym jest dla nich ważniejszy. 🤖
Kolejną rzeczą są kody przekierowań. Dzięki nim określasz, jaki jest przekierowany link. Korzystasz z nich np. kiedy ustawiasz linki jako kanoniczne, czyli oznaczające stronę jako pierwowzór, lub przekierowujesz do innych URL-i. Pozwalają Ci one na pełną kontrolę nad siecią linków wewnątrz serwisu.
Powinno zależeć Ci na linkowaniu do stron ze statusem 200 i kanonicznych. Nie pozwól na sytuację, gdzie linki prowadzą do stron odpowiadających statusem 404.
Istnieje także tag canonical. Informuje on roboty Google o tym, który adres jest oryginalną treścią. Stosuje się go w przypadku gdy różne adresy prezentują tą samą, lub bardzo podobną zawartość. Bez tego tagu może dojść do kanibalizacji treści i Google sam mógłby wybrać, który adres będzie indeksował. Dzięki zastosowaniu tagu canonical to my określamy indeksowaną stronę.
Jeśli chcesz się dowiedzieć więcej o linkach kanonicznych, w komentarzu znajdziesz link do naszego posta poświęconemu właśnie temu zagadnieniu. ⬇
2023-06-06, 13:18
facebook
Zarządzasz e-commerce? Ten post jest dla Ciebie. 🛒
Wyszukiwanie wewnętrzne jest funkcjonalnością, którą można spotkać na coraz większej liczbie stron. Szczególnie często używa się go w przypadku sklepów internetowych. 🔎
Wyszukiwanie wewnętrzne to nic innego jak „prywatny Google” w obrębie Twojego serwisu. Po wpisaniu w pole słowa kluczowego serwer podaje wyniki wyszukiwania w postaci różnego rodzaju podstron.
To ogromne wsparcie zwłaszcza dla dużych sklepów internetowych z wieloma kategoriami i produktami. Dzięki wyszukiwaniu wewnętrznemu klient oszczędza czas na przeszukiwaniu strony w celu odnalezienia interesujących go elementów.
Co więcej, dzięki Google Analytics jesteś w stanie monitorować, czego użytkownicy szukają przy pomocy wyszukiwania wewnętrznego. Jeśli któraś z wpisywanych fraz nie jest zaspokajana przez content na Twojej stronie, to znak, że powinieneś stworzyć artykuł na ten temat lub dodać do oferty określony produkt. O ile oczywiście wyszukiwanie jest na tyle częste, że będzie się to opłacać. 💰
Z perspektywy SEO świadome zarządzanie indeksacją wyników wyszukiwania wewnętrznego jest bardzo istotne. W niektórych przypadkach może być elementem budowania fraz długiego ogona, choć niestety czasem będzie powodowało negatywne zjawiska, np. index bloat lub kanibalizację.
Masz pytania? Zadaj je w komentarzu, a my postaramy się odpowiedzieć Ci jak najszybciej.
#seo #ecommerce
Wyszukiwanie wewnętrzne jest funkcjonalnością, którą można spotkać na coraz większej liczbie stron. Szczególnie często używa się go w przypadku sklepów internetowych. 🔎
Wyszukiwanie wewnętrzne to nic innego jak „prywatny Google” w obrębie Twojego serwisu. Po wpisaniu w pole słowa kluczowego serwer podaje wyniki wyszukiwania w postaci różnego rodzaju podstron.
To ogromne wsparcie zwłaszcza dla dużych sklepów internetowych z wieloma kategoriami i produktami. Dzięki wyszukiwaniu wewnętrznemu klient oszczędza czas na przeszukiwaniu strony w celu odnalezienia interesujących go elementów.
Co więcej, dzięki Google Analytics jesteś w stanie monitorować, czego użytkownicy szukają przy pomocy wyszukiwania wewnętrznego. Jeśli któraś z wpisywanych fraz nie jest zaspokajana przez content na Twojej stronie, to znak, że powinieneś stworzyć artykuł na ten temat lub dodać do oferty określony produkt. O ile oczywiście wyszukiwanie jest na tyle częste, że będzie się to opłacać. 💰
Z perspektywy SEO świadome zarządzanie indeksacją wyników wyszukiwania wewnętrznego jest bardzo istotne. W niektórych przypadkach może być elementem budowania fraz długiego ogona, choć niestety czasem będzie powodowało negatywne zjawiska, np. index bloat lub kanibalizację.
Masz pytania? Zadaj je w komentarzu, a my postaramy się odpowiedzieć Ci jak najszybciej.
#seo #ecommerce
2023-05-30, 15:14
facebook
Masz dostęp do logów serwera? Dzięki nim możemy dowiedzieć się wielu rzeczy na temat tego, w jaki sposób Googlebot zachowuje się na twojej stronie. 🤖
Logi serwera to w dużym skrócie zapis zdarzeń, jakie miały miejsce na serwerze.
Czego SEO-wiec może dowiedzieć się z logów serwera:
🟥 jak rozkłada się ruch w poszczególnych katalogach serwisu,
🟥 jakie adresy w twoim serwisie chętnie odwiedza Googlebot, a do jakich nie zagląda
🟥 na jakie statusy odpowiedzi serwera trafia Googlebot (lub inne boty, jeśli taki jest cel analizy) i czy są one spójne
🟥 jak wygląda rozkład poszczególnych wartości w czasie.
Jest to pomocne w procesie zarządzania crawl budget, w rozwiązywaniu problemów związanych z indeksowaniem, a także tzw. Page Rank sculpting, czyli optymalizowaniu przepływu autorytetu między podstronami.
Logi serwera to kopalnia wiedzy o serwisie. 📖
Do analizy danych wskazane jest użycie dedykowanego oprogramowania takiego jak np. popularny Screaming Frog Log Analyzer (nie mylić z Screaming Frog SEO Spider - to dwa osobne narzędzia), OnCrawl, czy np. w ograniczonym zakresie jeden z modułów Semrush. W pewnym stopniu dane na temat zachowań robota udostępnia nam też od jakiegoś czasu Google w Search Console w raporcie Ustawienia > Statystyki indeksowania.
Logi serwera to w dużym skrócie zapis zdarzeń, jakie miały miejsce na serwerze.
Czego SEO-wiec może dowiedzieć się z logów serwera:
🟥 jak rozkłada się ruch w poszczególnych katalogach serwisu,
🟥 jakie adresy w twoim serwisie chętnie odwiedza Googlebot, a do jakich nie zagląda
🟥 na jakie statusy odpowiedzi serwera trafia Googlebot (lub inne boty, jeśli taki jest cel analizy) i czy są one spójne
🟥 jak wygląda rozkład poszczególnych wartości w czasie.
Jest to pomocne w procesie zarządzania crawl budget, w rozwiązywaniu problemów związanych z indeksowaniem, a także tzw. Page Rank sculpting, czyli optymalizowaniu przepływu autorytetu między podstronami.
Logi serwera to kopalnia wiedzy o serwisie. 📖
Do analizy danych wskazane jest użycie dedykowanego oprogramowania takiego jak np. popularny Screaming Frog Log Analyzer (nie mylić z Screaming Frog SEO Spider - to dwa osobne narzędzia), OnCrawl, czy np. w ograniczonym zakresie jeden z modułów Semrush. W pewnym stopniu dane na temat zachowań robota udostępnia nam też od jakiegoś czasu Google w Search Console w raporcie Ustawienia > Statystyki indeksowania.
2023-05-26, 13:50
facebook
Nasz CMO SzymonSlowik.pl - blog o SEO i marketingu wystąpi w doborowym towarzystwie na konferencji SEO & Content Camp organizowanej przez WhitePress! 🎉
Będzie to szczególne wydarzenie ze względu na świętowanie 10 lecia WhitePress.
Oprócz Szymona na scenie zobaczycie doświadczonych prelegentów z Polski, a także zagraniczne sławy takie jak:
🟥Matt Diggity
🟥Kyle Roof
🟥Koray Tuğberk Gübür
Szymon opowie o roli zachowań użytkowników w SEO i pracy z danymi behawioralnymi.
Konferencja odbędzie się już za 2 dni w Zakopanem.
Nie może Was zabraknąć!
Będzie to szczególne wydarzenie ze względu na świętowanie 10 lecia WhitePress.
Oprócz Szymona na scenie zobaczycie doświadczonych prelegentów z Polski, a także zagraniczne sławy takie jak:
🟥Matt Diggity
🟥Kyle Roof
🟥Koray Tuğberk Gübür
Szymon opowie o roli zachowań użytkowników w SEO i pracy z danymi behawioralnymi.
Konferencja odbędzie się już za 2 dni w Zakopanem.
Nie może Was zabraknąć!
2023-05-23, 13:11
facebook
Co powinien zawierać i jak wyglądać raport działań SEO? 📃
Raport działań to jeden z ważniejszych elementów współpracy. Raport dla wielu osób jest świadectwem naszej pracy - wskazuje, co zostało w danym miesiącu zrealizowane, informuje o aktualnej sytuacji, a także przedstawia dalsze plany.
Omówmy to na podstawie raportu działań przygotowanych przez specjalistów z takaoto.
Porównanie wyników
W pierwszym punkcie naszego raportu porównujemy wyniki ruchu organicznego względem poprzedniego miesiąca oraz roku. Pozwala nam to zobaczyć szerszy obraz kondycji strony. Porównywane dane to:
🟥 liczba sesji z ruchu organicznego,
🟥 ilość nowych użytkowników z ruchu organicznego,
🟥 ilość transakcji,
🟥 współczynnik konwersji,
🟥 średni czas trwania sesji,
🟥 sesje według urządzeń,
🟥 sesje według miast (desktop).
Widoczność słów kluczowych
W tej sekcji dane porównywane są względem poprzedniego miesiąca. Aby porównać wyniki, bierzemy wcześniej określone główne słowa kluczowe i ich pochodne oraz sprawdzamy, jaka jest pozycja strony na daną frazę, ile jest kliknięć oraz wyświetleń.
Wejścia z ruchu organicznego według podstron 📈
Kolejnym krokiem jest zaprezentowanie ruchu organicznego według poszczególnych podstron. Dzięki temu jesteśmy w stanie określić, które adresy generują najwięcej ruchu. W tym celu analizujemy ilość sesji, i ich procentowy spadek lub wzrost względem poprzedniego okresu.
Widoczność w wyszukiwarce według narzędzia Senuto
W tym etapie korzystamy z pomocy narzędzia, jakim jest Senuto Polska. Określamy na ile wyszukiwanych słów kluczowych strona znajduje się w TOP 3, TOP 10 i TOP 50 wyników.
Pozyskane linki 🔗
Linki to szczególnie ważny etap, gdyż weryfikuje on, jak został wykorzystany budżet na linkowanie. W tej sekcji klient znajdzie listę pozyskanych linków wraz z datą ich pozyskania.
Plan działania 📄
Ostatni fragment raportu to plan działania na kolejne miesiące. To w tym miejscu określamy kolejne kroki, jakie podejmiemy w ramach współpracy z klientem. Plan dzielimy na działania onpage i link building.
Tak zbudowany raport to gwarancja jasności we współpracy z klientem. Zapewnia to także poczucie bezpieczeństwa dla obu stron, gdyż każdy wie, czego się od niego wymaga i za co się płaci.
Masz sprawdzone sposoby na raportowanie? Podziel się nimi w komentarzu!
Raport działań to jeden z ważniejszych elementów współpracy. Raport dla wielu osób jest świadectwem naszej pracy - wskazuje, co zostało w danym miesiącu zrealizowane, informuje o aktualnej sytuacji, a także przedstawia dalsze plany.
Omówmy to na podstawie raportu działań przygotowanych przez specjalistów z takaoto.
Porównanie wyników
W pierwszym punkcie naszego raportu porównujemy wyniki ruchu organicznego względem poprzedniego miesiąca oraz roku. Pozwala nam to zobaczyć szerszy obraz kondycji strony. Porównywane dane to:
🟥 liczba sesji z ruchu organicznego,
🟥 ilość nowych użytkowników z ruchu organicznego,
🟥 ilość transakcji,
🟥 współczynnik konwersji,
🟥 średni czas trwania sesji,
🟥 sesje według urządzeń,
🟥 sesje według miast (desktop).
Widoczność słów kluczowych
W tej sekcji dane porównywane są względem poprzedniego miesiąca. Aby porównać wyniki, bierzemy wcześniej określone główne słowa kluczowe i ich pochodne oraz sprawdzamy, jaka jest pozycja strony na daną frazę, ile jest kliknięć oraz wyświetleń.
Wejścia z ruchu organicznego według podstron 📈
Kolejnym krokiem jest zaprezentowanie ruchu organicznego według poszczególnych podstron. Dzięki temu jesteśmy w stanie określić, które adresy generują najwięcej ruchu. W tym celu analizujemy ilość sesji, i ich procentowy spadek lub wzrost względem poprzedniego okresu.
Widoczność w wyszukiwarce według narzędzia Senuto
W tym etapie korzystamy z pomocy narzędzia, jakim jest Senuto Polska. Określamy na ile wyszukiwanych słów kluczowych strona znajduje się w TOP 3, TOP 10 i TOP 50 wyników.
Pozyskane linki 🔗
Linki to szczególnie ważny etap, gdyż weryfikuje on, jak został wykorzystany budżet na linkowanie. W tej sekcji klient znajdzie listę pozyskanych linków wraz z datą ich pozyskania.
Plan działania 📄
Ostatni fragment raportu to plan działania na kolejne miesiące. To w tym miejscu określamy kolejne kroki, jakie podejmiemy w ramach współpracy z klientem. Plan dzielimy na działania onpage i link building.
Tak zbudowany raport to gwarancja jasności we współpracy z klientem. Zapewnia to także poczucie bezpieczeństwa dla obu stron, gdyż każdy wie, czego się od niego wymaga i za co się płaci.
Masz sprawdzone sposoby na raportowanie? Podziel się nimi w komentarzu!
2023-05-19, 13:25
facebook
Już za chwile nasz CMO Szymon Słowik wystąpi na konferencji I love marketing & technology organizowanej przez sprawny.marketing.
Szymon przygotował prelekcję o tytule: Słowa kluczowe - research i targetowanie.
Życzymy powodzenia!
Szymon przygotował prelekcję o tytule: Słowa kluczowe - research i targetowanie.
Życzymy powodzenia!
2023-05-18, 14:27
facebook
To już jutro, zapraszamy!
2023-05-18, 11:36
facebook
TikTok Partnerem głównym konferencji I ❤ marketing & technology
W poniedziałek Warszawie wystartowała XV edycja konferencji marketingowej - I ❤ marketing & technology, a jej Partnerem głównym został TikTok, czyli najszybciej rosnąca platforma rozrywkowa, o niepodważalnym wpływie na cyfrowy i biznesowy ekosystem.
To nie przypadek, że to właśnie TikTok niewątpliwie na dobre zmienił internet: w sposobie jaki konsumujemy treści, jak odkrywamy nowe zainteresowania i jak tworzymy nowe trendy. 62% użytkowników odwiedza platformę, żeby odkryć coś nowego, a 33% z nich deklaruje, że uczy się na TikToku nowych rzeczy.
TikTok jest jedyną w swoim rodzaju platformą rozrywkową, kreującą modę, pomagającą odkryć najgorętsze nowości a jednocześnie skutecznie wspierającą każdy biznes - niezależnie od skali i branży. Opierając się o prawdziwe zainteresowania użytkowników, dostarczając ekscytujący, świeży kontent i dając każdemu szansę na zaprezentowanie swojej pasji lub biznesu, tworzy unikalne społeczności, chętne do odkrywania, poznawania i zachęcone do działania.
Organizatorzy z prawdziwą przyjemnością ogłaszają, że TikTok został głównym partnerem tegorocznej edycji konferencji. Uczestnicy będą mieli szansę dowiedzieć się bezpośrednio od przedstawicieli platformy, jak wykorzystać jej potencjał dla swojej marki i zaistnieć w ponadmiliardowej grupie użytkowników. Wyjątkowy warsztat z kreatywnej komunikacji poprowadzi drugiego dnia konferencji, czyli we wtorek, 16-go maja, Joanna Nowak - Strateżka Kreatywna TikToka w CE, swoim doświadczeniem z uczestnikami podzielą się także eksperci TikToka, obecni podczas konferencji. Warto zdecydowanie odwiedzić w tym celu strefę TikToka.
Sam event odbywa się stacjonarnie w Multikinie Złote Tarasy, ale można wziąć w nim udział również online. Po raz pierwszy konferencja potrwa aż pięć dni i wystąpi na niej ponad 50 prelegentek i prelegentów. I ❤ marketing & technology to przede wszystkim dawka skondensowanej wiedzy, bo każdy występujący to ekspert w swojej dziedzinie, a na przekazanie cennych wskazówek ma jedynie 18 minut. Dzięki temu musi maksymalnie wykorzystać czas i skupić się na tym, co naprawdę istotne.
Prelegentki i prelegenci rywalizują między sobą o miano najlepszego wystąpienia, a o ich wynagrodzeniu decyduje publiczność, która ocenia wszystkie prelekcje. Uzupełnieniem prezentacji będą panele dyskusyjne, podczas których występujący odpowiedzą na pytania publiczności.
Konferencja została podzielona na kilka ścieżek tematycznych:
I ❤ automation & tools
I ❤ marketing I ❤ social media
I ❤ seo & content
I ❤ dev
Szczegółowe informacje o wydarzeniu dostępne są na stronie ilovemkt.pl.
W poniedziałek Warszawie wystartowała XV edycja konferencji marketingowej - I ❤ marketing & technology, a jej Partnerem głównym został TikTok, czyli najszybciej rosnąca platforma rozrywkowa, o niepodważalnym wpływie na cyfrowy i biznesowy ekosystem.
To nie przypadek, że to właśnie TikTok niewątpliwie na dobre zmienił internet: w sposobie jaki konsumujemy treści, jak odkrywamy nowe zainteresowania i jak tworzymy nowe trendy. 62% użytkowników odwiedza platformę, żeby odkryć coś nowego, a 33% z nich deklaruje, że uczy się na TikToku nowych rzeczy.
TikTok jest jedyną w swoim rodzaju platformą rozrywkową, kreującą modę, pomagającą odkryć najgorętsze nowości a jednocześnie skutecznie wspierającą każdy biznes - niezależnie od skali i branży. Opierając się o prawdziwe zainteresowania użytkowników, dostarczając ekscytujący, świeży kontent i dając każdemu szansę na zaprezentowanie swojej pasji lub biznesu, tworzy unikalne społeczności, chętne do odkrywania, poznawania i zachęcone do działania.
Organizatorzy z prawdziwą przyjemnością ogłaszają, że TikTok został głównym partnerem tegorocznej edycji konferencji. Uczestnicy będą mieli szansę dowiedzieć się bezpośrednio od przedstawicieli platformy, jak wykorzystać jej potencjał dla swojej marki i zaistnieć w ponadmiliardowej grupie użytkowników. Wyjątkowy warsztat z kreatywnej komunikacji poprowadzi drugiego dnia konferencji, czyli we wtorek, 16-go maja, Joanna Nowak - Strateżka Kreatywna TikToka w CE, swoim doświadczeniem z uczestnikami podzielą się także eksperci TikToka, obecni podczas konferencji. Warto zdecydowanie odwiedzić w tym celu strefę TikToka.
Sam event odbywa się stacjonarnie w Multikinie Złote Tarasy, ale można wziąć w nim udział również online. Po raz pierwszy konferencja potrwa aż pięć dni i wystąpi na niej ponad 50 prelegentek i prelegentów. I ❤ marketing & technology to przede wszystkim dawka skondensowanej wiedzy, bo każdy występujący to ekspert w swojej dziedzinie, a na przekazanie cennych wskazówek ma jedynie 18 minut. Dzięki temu musi maksymalnie wykorzystać czas i skupić się na tym, co naprawdę istotne.
Prelegentki i prelegenci rywalizują między sobą o miano najlepszego wystąpienia, a o ich wynagrodzeniu decyduje publiczność, która ocenia wszystkie prelekcje. Uzupełnieniem prezentacji będą panele dyskusyjne, podczas których występujący odpowiedzą na pytania publiczności.
Konferencja została podzielona na kilka ścieżek tematycznych:
I ❤ automation & tools
I ❤ marketing I ❤ social media
I ❤ seo & content
I ❤ dev
Szczegółowe informacje o wydarzeniu dostępne są na stronie ilovemkt.pl.
2023-05-17, 12:15
facebook
Planujesz działania content marketingowe? Sprawdź jak się do tego zabrać!
Mówiąc najkrócej, content marketing polega na tworzeniu treści realizujących założenia marketingowe. Celami może być np. budowa relację z odbiorcą, przyczyniająca się do jego przywiązania do marki lub też chęci opowiedzenia o niej innym, choćby poprzez udostępnianie naszych artykułów na swoich profilach społecznościowych. 📣
Najważniejsze to stworzyć ciekawe treści i dobrać odpowiednie kanały do ich dystrybucji.
Nie każdy typ contentu pasuje do każdego kanału. Inne treści opublikujemy w newsletterze, inne na naszych social mediach, a jeszcze inne w e-booku.
Wyobraźmy sobie, że ktoś z naszej firmy wystąpił na konferencji w roli prelegenta. Pochwalenie się tym na Instagramie to świetny pomysł, ale robienie na ten temat 15 stronicowego case study już nie.
Treść musi się wyróżniać. 🌟
Obecnie prawie każda firma prowadzi content marketing (wpisy w mediach społecznościowych, to też przecież content marketing!). Dlatego przez natłok treści coraz trudniej jest się wyróżnić z tłumu postów, video i role, a to właśnie wyróżnianie się daje odbiorcy realną wartość. Jeżeli będziemy pisać artykuły o tym samym, co konkurencja nie dodając nic od siebie, to dlaczego ktoś ma czytać akurat nasze treści?
Unikalne komentarze, własne spostrzeżenia, przykłady, którymi możemy zobrazować problem, a które pochodzą z naszego doświadczenia to coś, czym możemy wygrać z walkę o uwagę odbiorców.
Dopasuj formę wypowiedzi do swojej grupy docelowej. 🧔
W zależności od wieku, zajęcia czy zainteresowań, będziecie korzystali z różnego stylu pisania, aby trafić do swoich odbiorców. W końcu inaczej rozmawia się z 17 latkiem, który uczęszcza do liceum a inaczej z 50-letnim profesorem.
Masz sprawdzone sposoby na content marketing? Pochwal się nimi w komentarzu! ⬇
Mówiąc najkrócej, content marketing polega na tworzeniu treści realizujących założenia marketingowe. Celami może być np. budowa relację z odbiorcą, przyczyniająca się do jego przywiązania do marki lub też chęci opowiedzenia o niej innym, choćby poprzez udostępnianie naszych artykułów na swoich profilach społecznościowych. 📣
Najważniejsze to stworzyć ciekawe treści i dobrać odpowiednie kanały do ich dystrybucji.
Nie każdy typ contentu pasuje do każdego kanału. Inne treści opublikujemy w newsletterze, inne na naszych social mediach, a jeszcze inne w e-booku.
Wyobraźmy sobie, że ktoś z naszej firmy wystąpił na konferencji w roli prelegenta. Pochwalenie się tym na Instagramie to świetny pomysł, ale robienie na ten temat 15 stronicowego case study już nie.
Treść musi się wyróżniać. 🌟
Obecnie prawie każda firma prowadzi content marketing (wpisy w mediach społecznościowych, to też przecież content marketing!). Dlatego przez natłok treści coraz trudniej jest się wyróżnić z tłumu postów, video i role, a to właśnie wyróżnianie się daje odbiorcy realną wartość. Jeżeli będziemy pisać artykuły o tym samym, co konkurencja nie dodając nic od siebie, to dlaczego ktoś ma czytać akurat nasze treści?
Unikalne komentarze, własne spostrzeżenia, przykłady, którymi możemy zobrazować problem, a które pochodzą z naszego doświadczenia to coś, czym możemy wygrać z walkę o uwagę odbiorców.
Dopasuj formę wypowiedzi do swojej grupy docelowej. 🧔
W zależności od wieku, zajęcia czy zainteresowań, będziecie korzystali z różnego stylu pisania, aby trafić do swoich odbiorców. W końcu inaczej rozmawia się z 17 latkiem, który uczęszcza do liceum a inaczej z 50-letnim profesorem.
Masz sprawdzone sposoby na content marketing? Pochwal się nimi w komentarzu! ⬇
2023-05-17, 10:48
facebook
Chcesz ograniczyć robotom dostęp do Twojej strony? Użyj pliku robots.txt! 🤖
Robots.txt to plik tekstowy umieszczany w głównym katalogu domeny pod adresem nazwadomeny.tld/robots.txt. Służy do blokowania robotom dostępu do crawlowania wybranych zasobów strony. Co ważne, przy jego pomocy możesz nie tylko zablokować możliwość czytania wybranych podstron Googlebotowi, ale także crawlerom takich programów jak Ahrefs, czy Semrush, a także różnego rodzaju spamerskim robotom obciążającym zasoby serwera. Pamiętaj, że jeżeli całkowicie zablokujesz dostęp do serwisu robotom Google, Twoja strona może mieć problemy z indeksowaniem. Jednocześnie należy pamiętać, że funkcją robots.txt jest sterowanie crawlowaniem, a nie stricte indeksacją zasobów.
W celu zablokowania indeksacji stosuje się dyrektywę noindex w tagu meta robots lub w nagłówkach HTTP. W szczególnych przypadkach Google sugeruje, aby nawet stosować zabezpieczenie plików hasłem na serwerze. Blokowanie botów ahrefs i innych tego typu programów, stosuje się często na zapleczach, aby nie były zaczytywane dane o linkach wychodzących. Warto jednak wziąć pod uwagę blokowanie tych botów z poziomu pliku .htaccess, a nie robots.txt, aby nie tworzyć niepotrzebnych footprintów przy większej ilości stron zapleczowych.
W przypadku blokowania robotów mamy dwie możliwości:
🟥 zablokowanie dostępu do całego serwisu,
🟥 zablokowanie dostępu jedynie do wybranych części serwisu (np. całych katalogów),
🟥 zablokowanie dostępu do konkretnych formatów lub pojedynczych plików.
Po co właściwie blokuje się dostęp do serwisu❓
Blokując crawlowanie niepożądanych zasobów możesz zoptymalizować crawl budget. Dzięki temu Googlebot będzie efektywniej znajdował strony, na których Ci zależy.
Natomiast jeśli chodzi o blokowanie narzędzi, jest to pewnego rodzaju zabezpieczenie przed konkurentami, którzy chcieliby Twój serwis. Dodatkowo ukryjesz linki wychodzące z PBN-ów, co pomoże ukryć Twoją strategię linkowania. 🔗
Najczęściej blokuje się strony, które nie są ważne z punktu widzenia wyszukiwania. Są nimi np. strony logowania, katalogi ze skryptami, wtyczkami i innymi nieistotnymi dla SEO danymi.
Jeśli planujesz pobawić się robots.txt warto zapoznać się z całą dokumentacją dotyczącą tego pliku. W komentarzu znajdziesz do niej link.
#robotstxt #seo #pozycjonowanie
Robots.txt to plik tekstowy umieszczany w głównym katalogu domeny pod adresem nazwadomeny.tld/robots.txt. Służy do blokowania robotom dostępu do crawlowania wybranych zasobów strony. Co ważne, przy jego pomocy możesz nie tylko zablokować możliwość czytania wybranych podstron Googlebotowi, ale także crawlerom takich programów jak Ahrefs, czy Semrush, a także różnego rodzaju spamerskim robotom obciążającym zasoby serwera. Pamiętaj, że jeżeli całkowicie zablokujesz dostęp do serwisu robotom Google, Twoja strona może mieć problemy z indeksowaniem. Jednocześnie należy pamiętać, że funkcją robots.txt jest sterowanie crawlowaniem, a nie stricte indeksacją zasobów.
W celu zablokowania indeksacji stosuje się dyrektywę noindex w tagu meta robots lub w nagłówkach HTTP. W szczególnych przypadkach Google sugeruje, aby nawet stosować zabezpieczenie plików hasłem na serwerze. Blokowanie botów ahrefs i innych tego typu programów, stosuje się często na zapleczach, aby nie były zaczytywane dane o linkach wychodzących. Warto jednak wziąć pod uwagę blokowanie tych botów z poziomu pliku .htaccess, a nie robots.txt, aby nie tworzyć niepotrzebnych footprintów przy większej ilości stron zapleczowych.
W przypadku blokowania robotów mamy dwie możliwości:
🟥 zablokowanie dostępu do całego serwisu,
🟥 zablokowanie dostępu jedynie do wybranych części serwisu (np. całych katalogów),
🟥 zablokowanie dostępu do konkretnych formatów lub pojedynczych plików.
Po co właściwie blokuje się dostęp do serwisu❓
Blokując crawlowanie niepożądanych zasobów możesz zoptymalizować crawl budget. Dzięki temu Googlebot będzie efektywniej znajdował strony, na których Ci zależy.
Natomiast jeśli chodzi o blokowanie narzędzi, jest to pewnego rodzaju zabezpieczenie przed konkurentami, którzy chcieliby Twój serwis. Dodatkowo ukryjesz linki wychodzące z PBN-ów, co pomoże ukryć Twoją strategię linkowania. 🔗
Najczęściej blokuje się strony, które nie są ważne z punktu widzenia wyszukiwania. Są nimi np. strony logowania, katalogi ze skryptami, wtyczkami i innymi nieistotnymi dla SEO danymi.
Jeśli planujesz pobawić się robots.txt warto zapoznać się z całą dokumentacją dotyczącą tego pliku. W komentarzu znajdziesz do niej link.
#robotstxt #seo #pozycjonowanie
2023-05-11, 15:01
facebook
Zagmatwana umowa, z której nic nie rozumiesz? Postaw na transparentność. 📃
Przejrzyste warunki to podstawa każdej współpracy. Dzięki nim agencja wie, czego się od niej wymaga, a klient czego powinien oczekiwać. Nie ma tu zbędnych nieporozumień, wynikających z niejasnych zapisów i nieprecyzyjnych ustaleń.
Właśnie dlatego transparentność umowy jest tak ważna. Daje klientowi poczucie bezpieczeństwa, a agencji jasno wytyczone działania, które musi podjąć i ramy, w których może się poruszać.
Co powinna zawierać przejrzysta umowa❓
🟥Po pierwsze, ma wymienione działania, jakie w ramach współpracy będzie wykonywać agencja.
🟥Po drugie, jest w niej określona cena za wykonywane usługi. Dzięki temu wiesz dokładnie, za co płacisz.
🟥Po trzecie, jasne warunki dotyczące czasu trwania współpracy. W takaoto.pro stawiamy na partnerskie relacje, dlatego każda umowa jest zawierana na czas nieokreślony z korzystnym dla obu stron okresem wypowiedzenia.
🟥Po czwarte, powinien zostać ustalony jasny sposób raportowania, dzięki czemu dokładnie wiesz, w jaki sposób agencja wywiązuje się ze swoich zobowiązań.
Jeśli chcesz uniknąć stresu i nieprzyjemnych sytuacji spowodowanych błędami komunikacyjnymi, wybierz agencję, która zaoferuje Ci przejrzyste warunki umowy.
Przejrzyste warunki to podstawa każdej współpracy. Dzięki nim agencja wie, czego się od niej wymaga, a klient czego powinien oczekiwać. Nie ma tu zbędnych nieporozumień, wynikających z niejasnych zapisów i nieprecyzyjnych ustaleń.
Właśnie dlatego transparentność umowy jest tak ważna. Daje klientowi poczucie bezpieczeństwa, a agencji jasno wytyczone działania, które musi podjąć i ramy, w których może się poruszać.
Co powinna zawierać przejrzysta umowa❓
🟥Po pierwsze, ma wymienione działania, jakie w ramach współpracy będzie wykonywać agencja.
🟥Po drugie, jest w niej określona cena za wykonywane usługi. Dzięki temu wiesz dokładnie, za co płacisz.
🟥Po trzecie, jasne warunki dotyczące czasu trwania współpracy. W takaoto.pro stawiamy na partnerskie relacje, dlatego każda umowa jest zawierana na czas nieokreślony z korzystnym dla obu stron okresem wypowiedzenia.
🟥Po czwarte, powinien zostać ustalony jasny sposób raportowania, dzięki czemu dokładnie wiesz, w jaki sposób agencja wywiązuje się ze swoich zobowiązań.
Jeśli chcesz uniknąć stresu i nieprzyjemnych sytuacji spowodowanych błędami komunikacyjnymi, wybierz agencję, która zaoferuje Ci przejrzyste warunki umowy.
2023-05-09, 11:23
facebook
Nadal korzystasz z technologii AMP na swojej stronie❓Możliwe, że powinieneś przestać.
W latach 2015-2021 standard AMP był używany na szeroką skalę w serwisach internetowych. Dzięki niemu strony ładowały się szybciej, co w niektórych przypadkach pozwalało prześcignąć konkurencję w wynikach wyszukiwania na urządzeniach mobilnych. 📱
Obecnie technologia AMP nie jest już tak przydatna jak kiedyś, gdyż przysparza wiele problemów, a jednocześnie da się ją zastąpić innymi metodami przyspieszania witryny.
Jako pierwszy przykład weźmy monetyzację stron www. 💰
Przez przyspieszenie ładowania strony tracą na tym reklamy wewnątrz serwisu. AMP ogranicza ich wyświetlanie właśnie ze względu na zwiększenie prędkości wczytywania witryny, co nie oznacza, że reklam nie będzie wcale. Najprawdopodobniej zmniejszy się ich ilość na stronie. 📉
AMP ogranicza także możliwość stosowania dodatkowych skryptów oraz marketing automation. Jeśli dla przykładu chcemy na stronie umiejscowić popup, będzie to znacznie utrudnione.
W niektórych przypadkach ucierpi na tym też UX. AMP eliminuje każdy niepotrzebny ze swojego punktu widzenia fragment kodu, przez co strona może nie wyglądać tak dobrze, jak bez jego zastosowania.
Wcześniej Google przez benefity wymuszał na twórcach implementowanie AMP do swoich stron. Obecnie całkowicie się z tego wycofuje. Jeśli zastosujemy technologię AMP w swoim serwisie, sama w sobie nie zapewni nam ona wyższej pozycji niż konkurencja, która z niej nie korzysta. Mało tego, nie zyskamy nawet oznaczenia swojej strony jako ta korzystająca z tej technologii. Nie ma więc większego sensu w pogarszaniu swojego UX i marketing automation jedynie dla przyspieszenia ładowania strony, tym bardziej że to możemy zrobić bez AMP. W jaki sposób?
Otóż wystarczy odchudzić nieco kod i zoptymalizować go tak, aby strona ładowała się szybciej. Zrezygnujmy z niepotrzebnych wtyczek i skompresujmy zasoby takie jak np. grafiki. Możemy także sami zakodować jak najwięcej elementów na stronie, zamiast korzystać z builderów. 📈
Jeśli chcemy zoptymalizować stronę pod kątem wydajności, lepszym pomysłem będzie dostosowanie się do szeregu rekomendacji Google, niż stosowanie technologii AMP. Warto jest zapoznać się z dokumentacją dotyczącą doświadczeń użytkowników. Uwzględnia ona więcej aspektów takich jak: szybkość i stabilność ładowania strony oraz jej interaktywność, a jednocześnie nie narzuca ona stosowania konkretnej technologii i rezygnowania z szeregu funkcji witryny. ✅
W latach 2015-2021 standard AMP był używany na szeroką skalę w serwisach internetowych. Dzięki niemu strony ładowały się szybciej, co w niektórych przypadkach pozwalało prześcignąć konkurencję w wynikach wyszukiwania na urządzeniach mobilnych. 📱
Obecnie technologia AMP nie jest już tak przydatna jak kiedyś, gdyż przysparza wiele problemów, a jednocześnie da się ją zastąpić innymi metodami przyspieszania witryny.
Jako pierwszy przykład weźmy monetyzację stron www. 💰
Przez przyspieszenie ładowania strony tracą na tym reklamy wewnątrz serwisu. AMP ogranicza ich wyświetlanie właśnie ze względu na zwiększenie prędkości wczytywania witryny, co nie oznacza, że reklam nie będzie wcale. Najprawdopodobniej zmniejszy się ich ilość na stronie. 📉
AMP ogranicza także możliwość stosowania dodatkowych skryptów oraz marketing automation. Jeśli dla przykładu chcemy na stronie umiejscowić popup, będzie to znacznie utrudnione.
W niektórych przypadkach ucierpi na tym też UX. AMP eliminuje każdy niepotrzebny ze swojego punktu widzenia fragment kodu, przez co strona może nie wyglądać tak dobrze, jak bez jego zastosowania.
Wcześniej Google przez benefity wymuszał na twórcach implementowanie AMP do swoich stron. Obecnie całkowicie się z tego wycofuje. Jeśli zastosujemy technologię AMP w swoim serwisie, sama w sobie nie zapewni nam ona wyższej pozycji niż konkurencja, która z niej nie korzysta. Mało tego, nie zyskamy nawet oznaczenia swojej strony jako ta korzystająca z tej technologii. Nie ma więc większego sensu w pogarszaniu swojego UX i marketing automation jedynie dla przyspieszenia ładowania strony, tym bardziej że to możemy zrobić bez AMP. W jaki sposób?
Otóż wystarczy odchudzić nieco kod i zoptymalizować go tak, aby strona ładowała się szybciej. Zrezygnujmy z niepotrzebnych wtyczek i skompresujmy zasoby takie jak np. grafiki. Możemy także sami zakodować jak najwięcej elementów na stronie, zamiast korzystać z builderów. 📈
Jeśli chcemy zoptymalizować stronę pod kątem wydajności, lepszym pomysłem będzie dostosowanie się do szeregu rekomendacji Google, niż stosowanie technologii AMP. Warto jest zapoznać się z dokumentacją dotyczącą doświadczeń użytkowników. Uwzględnia ona więcej aspektów takich jak: szybkość i stabilność ładowania strony oraz jej interaktywność, a jednocześnie nie narzuca ona stosowania konkretnej technologii i rezygnowania z szeregu funkcji witryny. ✅
2023-05-04, 14:06
facebook
W ubiegły piątek nasz Head of Content Kamil Kolbusz występował w roli prelegenta na organizowanej przez WhitePress konferencji WarmUp. 🥳
Kamil opowiedział o copywritingu w dobie tik tokowych trendów.
Oprócz niego na konferencji wystąpili:
🟥Krzysztof Mierzyński z Sunrise System
🟥Marcin Duraj z Antygen.pl
🟥Darek Maćczak z Empressia
Jako wsparcie wraz z Kamilem na konferencję pojechał nasz cały dział contentu, fotki z wyprawy macie poniżej.
Wielkie dzięki za to wystąpienie, nie możemy doczekać się kolejnych!
Kamil opowiedział o copywritingu w dobie tik tokowych trendów.
Oprócz niego na konferencji wystąpili:
🟥Krzysztof Mierzyński z Sunrise System
🟥Marcin Duraj z Antygen.pl
🟥Darek Maćczak z Empressia
Jako wsparcie wraz z Kamilem na konferencję pojechał nasz cały dział contentu, fotki z wyprawy macie poniżej.
Wielkie dzięki za to wystąpienie, nie możemy doczekać się kolejnych!
2023-04-26, 12:53
facebook
Dzisiaj nasz senior content/ AI specialist, Krzysztof Swoboda, wyjaśnia, w jaki sposób dobieramy copywriterów do tematów specjalistycznych.🔥
W takaoto.pro nieobcy nam żaden segment rynku: współpracujemy z Klientami z całkowicie różnych branż, od mody, przez akcesoria GSM, po skomplikowane technologie produkcji czy laboratoria. Właśnie dlatego w naszym modelu pracy kluczowa jest współpraca z copywriterami, którzy specjalizują się w danym zagadnieniu lub obszarze tematycznym. Jak znajdujemy te osoby?
Przede wszystkim wychodzimy z założenia, że nie istnieje copywriter uniwersalny, czyli taki, który przygotuje idealny artykuł zarówno o nowinkach ze świata mody, sportu, bankowości, motoryzacji, jak i wyspecjalizowanych maszyn, stopów metali szlachetnych czy zasad działania elektrody wolframowej. Nie zdajemy się tutaj na przypadek – za każdym razem dopasowujemy copy do konkretnego projektu. W jaki sposób?
Kluczową rolę odgrywa brief założeń komunikacyjnych. To dokument wypełniany przez Klienta, w którym dzieli się on z nami informacjami na temat swojego biznesu i wskazuje, jakich treści od nas oczekuje.
Stawiamy nie tylko na klasyczny linkbuilding: naszym celem jest też zadbanie o to, by marka była prezentowana w Internecie zgodnie ze strategią Klienta. Zasada jest prosta – im dokładniej wypełniony brief, tym większa szansa na to, że teksty spełnią wszystkie, nawet najbardziej górnolotne, oczekiwania zlecającego.
Skrupulatnie weryfikujemy też umiejętności copywriterów. Jeśli Klient działa w bardzo wąskim obszarze rynku, np. produkuje lekarstwa czy suplementy, to copy powinien mieć wykształcenie kierunkowe lub np. posiadać portfolio związane z tą branżą.
Każdy tekst przechodzi rygorystyczny proces weryfikacji. Sprawdzamy:
✅ zgodność z briefem,
✅ poprawność językową,
✅ pokrycie fraz kluczowych.
Jeśli wszystko jest w porządku, wysyłamy tekst do akceptacji Klienta. W przypadku zastrzeżeń – poprawiamy wpis do skutku, aż ten nie zostanie zaakceptowany. Czy tak złożony proces może działać? Praktyka pokazuje, że – owszem – może!
Zdarza się, że współpracujące z nami firmy już po pierwszych kilku miesiącach rezygnują z procedury akceptacji, bo wiedzą, że zawsze dostarczymy im treści najwyższej jakości, zgodnych nie tylko briefem i frazami, ale i takich, które dobrze wpisują się w storytelling marki.
Dowodzi to tego, że podejmowane przez nas działania są słuszne, a z pozoru rozbudowany proces działa dokładnie tak, jak powinien.
W takaoto.pro nieobcy nam żaden segment rynku: współpracujemy z Klientami z całkowicie różnych branż, od mody, przez akcesoria GSM, po skomplikowane technologie produkcji czy laboratoria. Właśnie dlatego w naszym modelu pracy kluczowa jest współpraca z copywriterami, którzy specjalizują się w danym zagadnieniu lub obszarze tematycznym. Jak znajdujemy te osoby?
Przede wszystkim wychodzimy z założenia, że nie istnieje copywriter uniwersalny, czyli taki, który przygotuje idealny artykuł zarówno o nowinkach ze świata mody, sportu, bankowości, motoryzacji, jak i wyspecjalizowanych maszyn, stopów metali szlachetnych czy zasad działania elektrody wolframowej. Nie zdajemy się tutaj na przypadek – za każdym razem dopasowujemy copy do konkretnego projektu. W jaki sposób?
Kluczową rolę odgrywa brief założeń komunikacyjnych. To dokument wypełniany przez Klienta, w którym dzieli się on z nami informacjami na temat swojego biznesu i wskazuje, jakich treści od nas oczekuje.
Stawiamy nie tylko na klasyczny linkbuilding: naszym celem jest też zadbanie o to, by marka była prezentowana w Internecie zgodnie ze strategią Klienta. Zasada jest prosta – im dokładniej wypełniony brief, tym większa szansa na to, że teksty spełnią wszystkie, nawet najbardziej górnolotne, oczekiwania zlecającego.
Skrupulatnie weryfikujemy też umiejętności copywriterów. Jeśli Klient działa w bardzo wąskim obszarze rynku, np. produkuje lekarstwa czy suplementy, to copy powinien mieć wykształcenie kierunkowe lub np. posiadać portfolio związane z tą branżą.
Każdy tekst przechodzi rygorystyczny proces weryfikacji. Sprawdzamy:
✅ zgodność z briefem,
✅ poprawność językową,
✅ pokrycie fraz kluczowych.
Jeśli wszystko jest w porządku, wysyłamy tekst do akceptacji Klienta. W przypadku zastrzeżeń – poprawiamy wpis do skutku, aż ten nie zostanie zaakceptowany. Czy tak złożony proces może działać? Praktyka pokazuje, że – owszem – może!
Zdarza się, że współpracujące z nami firmy już po pierwszych kilku miesiącach rezygnują z procedury akceptacji, bo wiedzą, że zawsze dostarczymy im treści najwyższej jakości, zgodnych nie tylko briefem i frazami, ale i takich, które dobrze wpisują się w storytelling marki.
Dowodzi to tego, że podejmowane przez nas działania są słuszne, a z pozoru rozbudowany proces działa dokładnie tak, jak powinien.
2023-04-06, 13:41
facebook
Jeśli jeszcze nie wiesz, jak rozmawiać ze Sztuczną Inteligencją, to najlepszy czas, by to zmienić!
W poznaniu języka AI pomoże Ci poniższy artykuł przygotowany przez naszego CMO, Szymona Słowika. 🔥
W poznaniu języka AI pomoże Ci poniższy artykuł przygotowany przez naszego CMO, Szymona Słowika. 🔥
2023-04-04, 13:13
facebook
W takaoto.pro wydarzenia branżowe są ważnym punktem w kalendarzu. Wymienianie się własnymi doświadczeniami i spostrzeżeniami pozwala być na bieżąco z obecnymi trendami na rynku zarówno w kraju, jak i na świecie. Chętnie bierzemy w nich udział – nie tylko jako słuchacze, ale także w roli prelegentów. W tym roku nie jest inaczej! Wiosna pod tym względem zapowiada się u nas intensywnie.
🗓 Gdzie i kiedy nas zobaczycie?
📌21.04 – „WarmUp” w Poznaniu. Na scenie wystąpi nasz Head Of Content, Kamil Kolbusz, który przekaże sporą dawkę branżowej wiedzy. 🔥
📌18.05 – konferencja „I love marketing&technology” w Warszawie. Na wielkiej scenie wystąpi nasz CMO, Szymon Słowik, i opowie o „(Nie)powtarzalnej historii wzrostów pewnego serwisu”. 🔥
📌19.05 – branżowe spotkanie „SEO Poland On Tour by Linkhouse 2023”, na którym Kamil opowie co nieco o contencie. Miejsce akcji: Olsztyn. 🔥
📌25-27.05 – druga edycja konferencji „SEO & Content Camp”, która będzie miała miejsce w Zakopanem. Uczestnicy posłuchają wykładu Szymona o „Wiem, że nic nie wiem. Zachowania użytkownika w procesach SEO.”.🔥
📌 6.06 – kolejna odsłona dobrze znanego w branży barcampu „semKRK”. I tutaj nie można nas zabraknąć! Temat wystąpienia to „Hardcorowo dobre treści w dobie HC”, a w roli prelegenta Szymon. 🔥
A to tylko niektóre wydarzenia, w których będziemy uczestniczyć. Nie możemy się już doczekać, by porozmawiać z Wami o SEO i contencie. To co, gdzie się widzimy? 😎
🗓 Gdzie i kiedy nas zobaczycie?
📌21.04 – „WarmUp” w Poznaniu. Na scenie wystąpi nasz Head Of Content, Kamil Kolbusz, który przekaże sporą dawkę branżowej wiedzy. 🔥
📌18.05 – konferencja „I love marketing&technology” w Warszawie. Na wielkiej scenie wystąpi nasz CMO, Szymon Słowik, i opowie o „(Nie)powtarzalnej historii wzrostów pewnego serwisu”. 🔥
📌19.05 – branżowe spotkanie „SEO Poland On Tour by Linkhouse 2023”, na którym Kamil opowie co nieco o contencie. Miejsce akcji: Olsztyn. 🔥
📌25-27.05 – druga edycja konferencji „SEO & Content Camp”, która będzie miała miejsce w Zakopanem. Uczestnicy posłuchają wykładu Szymona o „Wiem, że nic nie wiem. Zachowania użytkownika w procesach SEO.”.🔥
📌 6.06 – kolejna odsłona dobrze znanego w branży barcampu „semKRK”. I tutaj nie można nas zabraknąć! Temat wystąpienia to „Hardcorowo dobre treści w dobie HC”, a w roli prelegenta Szymon. 🔥
A to tylko niektóre wydarzenia, w których będziemy uczestniczyć. Nie możemy się już doczekać, by porozmawiać z Wami o SEO i contencie. To co, gdzie się widzimy? 😎
2023-03-21, 13:25
facebook
Google właśnie ogłosiło core algorithm uptade. To duża i złożona aktualizacja, która zawiera w sobie szereg zmian dotyczących tzw. głównego algorytmu, na który składają się między innymi Google Panda/Coati czy Google Penguin. Ten drugi skupia się na ocenie profilu linkowego, rzekomo działając w czasie rzeczywistym, jednak to podczas głównych aktualizacji możemy zaobserwować zmiany wynikające z dewaluacji linków. Przy poprzednich zmianach core update zaobserwowaliśmy także zmiany dotyczące dopasowań stron do fraz i stojących za nimi intencji.
Co warto wiedzieć o core uptade?
🔴 Aktualizacja ma na celu poprawę jakości i trafności wyników wyszukiwania, dostarczając użytkownikom jak najbardziej wartościowych i dokładnych informacji.
🔴 Aktualizacje algorytmu są uniwersalne, co oznacza, że wpływają na każdą branżę.
🔴 Podczas core uptade często zmienia się trend w budowaniu widoczności strony. Co można zrobić w tej sytuacji? Obserwować czy nasze strony nie są wyindeksowane, czy strony odsyłające (linkujace do nas) nie wypadają z indeksu, a także sprawdzać jakiego typu frazy/ strony nam spadają na niższe pozycje, a jakie rosną.
Nie istnieje jednak uniwersalne rozwiązanie. Najlepsze co można zrobić w tej sytuacji to obserwacja zachodzących zmian. Jeśli osłabnie widoczność strony/ sklepu po core uptade, sposobem na odbicie może okazać się porządne posprzątanie na stronie, odzyskanie utraconych linków i zdobycie nowych, a także poprawa treści i architektury strony. Google kilka razy w roku wypuszcza taką aktualizację, w tym roku jest to pierwsza, a ostatnia miała miejsce pół roku temu.
Co warto wiedzieć o core uptade?
🔴 Aktualizacja ma na celu poprawę jakości i trafności wyników wyszukiwania, dostarczając użytkownikom jak najbardziej wartościowych i dokładnych informacji.
🔴 Aktualizacje algorytmu są uniwersalne, co oznacza, że wpływają na każdą branżę.
🔴 Podczas core uptade często zmienia się trend w budowaniu widoczności strony. Co można zrobić w tej sytuacji? Obserwować czy nasze strony nie są wyindeksowane, czy strony odsyłające (linkujace do nas) nie wypadają z indeksu, a także sprawdzać jakiego typu frazy/ strony nam spadają na niższe pozycje, a jakie rosną.
Nie istnieje jednak uniwersalne rozwiązanie. Najlepsze co można zrobić w tej sytuacji to obserwacja zachodzących zmian. Jeśli osłabnie widoczność strony/ sklepu po core uptade, sposobem na odbicie może okazać się porządne posprzątanie na stronie, odzyskanie utraconych linków i zdobycie nowych, a także poprawa treści i architektury strony. Google kilka razy w roku wypuszcza taką aktualizację, w tym roku jest to pierwsza, a ostatnia miała miejsce pół roku temu.
2023-03-16, 11:09
facebook
Dzisiaj team contentu zajął wygodne miejsca przed telewizorem, by obejrzeć webinar, podczas którego wystąpił nasz Head Of Content, Kamil Kolbusz. 🔥
Dzięki za tę contentową pogawędkę! A Wy, bez jakiej platformy społecznościowej nie wyobrażacie sobie internetu? U nas „to zależy". 😅
Dzięki za tę contentową pogawędkę! A Wy, bez jakiej platformy społecznościowej nie wyobrażacie sobie internetu? U nas „to zależy". 😅
2023-03-15, 14:25