Screaming Frog SEO Spider — przewodnik po narzędziu

Analiza stron internetowych względem optymalizacji pod wyszukiwarki — SEOSEO (Search Engine Optimization) to proces optymalizacji strony internetowej lub treści online w taki sposób, aby była lepiej widoczna i rankowana przez wyszukiwarki internetowe, takie jak Google, Bing czy Yahoo. Głównym celem SEO jest zwiększenie ruchu organicznego na stronie poprzez poprawę jej pozycji w wynikach wyszukiwania dla określonych słów kluczowych. Jak działa SEO? SEO opiera się na trzech głównych filarach: Optymalizacja techniczna – Zapewnienie, że strona działa sprawnie, szybko się...Czym jest SEO? — byłaby bardzo trudna bez wykorzystywania dedykowanych narzędzi. Dotarcie do każdej podstrony przez klasyczne „przeklikiwanie” się przez poszczególne adresy jest możliwe właściwie jedynie w przypadku bardzo małych serwisów zawierających dosłownie kilka podstron, a nawet w takich przypadkach nie zawsze jest to skuteczne, gdyż nie wszystko można uchwycić ludzkim okiem. W związku z tym, jednym z niezbędnych narzędzi każdego specjalisty SEO jest crawlerCrawler (znany również jako bot indeksujący lub robot wyszukiwarek) to program komputerowy używany przez wyszukiwarki internetowe, takie jak Google czy Bing, do systematycznego przeszukiwania i analizowania stron internetowych. Głównym zadaniem crawlera jest zbieranie danych o treściach znajdujących się na stronach i ich struktury, aby umożliwić wyszukiwarkom tworzenie indeksów oraz ocenę jakości stron. Jak działa crawler? Crawler działa na zasadzie przeglądania strony internetowej, zaczynając od głównej strony i poruszając się po...Czym jest Crawler?, np. Screaming Frog SEO Spider. Do czego służy to narzędzie i czy warto zacząć z nim pracować?

Screaming Frog — co to jest za narzędzie i do czego służy?

Instalacja narzędzia i wybór pakietu

Funkcje dostępne w wersji bezpłatnej i płatnej:

Funkcje dostępne tylko w wersji płatnej:

Instalacja Screaming Frog — krok po kroku

Screaming Frog — jak zacząć pracę z narzędziem i włączyć pierwszy crawl?

Ustawienia — Mode

Ustawienia — Configuration

Włączenie crawla

Analiza otrzymanego raportu

Warte uwagi funkcje Screaming Frog

Wykrywanie łańcuchów przekierowań

Funkcja Custom Extraction

Generowanie sitemap w formacie XML

Różne modele prezentacji danych

Screaming Frog SEO Spider — zalety i wady

Screaming Frog — czy warto zainteresować się tym narzędziem?

Screaming Frog — co to jest za narzędzie i do czego służy?

Założeniem działania crawlerów jest przechodzenie po analizowanym serwisie strona po stronie, z uwzględnieniem każdej linijki kodu. Screaming Frog działa właśnie w ten sposób, imitując jednocześnie zachowanie robotów crawlujących od Google czy Bing’a. Rezultatem jest obszerny raport zawierający wszystkie podstrony serwisu, a także takie dane jak nagłówki, meta title, meta description, status strony (np. kod 200, 3xx, 4xx, 5xx), dane strukturalneDane strukturalne to sposób organizowania i opisywania informacji na stronach internetowych w taki sposób, aby były one łatwiejsze do zrozumienia dla wyszukiwarek internetowych, takich jak Google. Dzięki odpowiedniemu formatowaniu, wyszukiwarki mogą lepiej interpretować treść strony i wyświetlać bardziej szczegółowe informacje w wynikach wyszukiwania, na przykład w formie rozszerzonych wyników (rich snippets), takich jak oceny produktów, ceny czy dostępność. Dlaczego dane strukturalne są ważne? Dane strukturalne pomagają wyszukiwarkom lepiej zrozumieć, co...Czym jest Dane strukturalne?, informacje o tagach kanonicznych czy przekierowaniach i wiele więcej.

Co więcej, Screaming Frog można połączyć z innymi narzędziami, takimi jak Google AnalyticsGoogle Analytics to bezpłatne narzędzie analityczne oferowane przez Google, które umożliwia właścicielom witryn internetowych i aplikacji mobilnych monitorowanie i analizowanie ruchu na ich stronach. Pozwala ono zbierać różnorodne dane na temat użytkowników, takie jak liczba odwiedzin, źródła ruchu, demografia użytkowników, zachowania na stronie, konwersje i wiele innych. Te informacje są prezentowane w formie przejrzystych raportów i wykresów, co umożliwia łatwą interpretację danych i podejmowanie decyzji dotyczących strategii marketingowej, optymalizacji treści...Czym jest Google Analytics?, Google Search ConsoleGoogle Search Console, wcześniej znane jako Google Webmaster Tools, to bezpłatne narzędzie udostępniane przez Google dla właścicieli stron internetowych i webmasterów, które umożliwia monitorowanie i zarządzanie widocznością witryny w wynikach wyszukiwania Google. Funkcje Google Search Console Wyszukiwanie i indeksowanie: Google Search Console pozwala monitorować, w jaki sposób Google indeksuje i wyświetla strony internetowe w wynikach wyszukiwania. Użytkownicy mogą sprawdzić, które strony zostały zaindeksowane, jakie frazy kluczowe wyświetlają ich strony oraz...Czym jest Google Search Console?, Page SpeedGoogle PageSpeed to zestaw narzędzi i usług stworzonych przez Google, które mają na celu ocenę i optymalizację wydajności stron internetowych. Narzędzia te pomagają programistom i webmasterom w poprawie szybkości ładowania stron oraz optymalizacji doświadczenia użytkownika. Narzędzia Google PageSpeed obejmują: Ocena wydajności strony: Narzędzia PageSpeed analizują wydajność strony internetowej i oceniają jej szybkość ładowania oraz wydajność na urządzeniach mobilnych i desktopowych. Sugestie optymalizacyjne: PageSpeed generuje sugestie dotyczące optymalizacji strony internetowej, takie...Czym jest PageSpeed? Insights, Moz, AhrefsAhrefs to zaawansowane narzędzie do analizy i optymalizacji SEO, które jest szeroko wykorzystywane przez specjalistów ds. marketingu internetowego. Dzięki Ahrefs można przeprowadzać szczegółowe badania konkurencji, analizować linki zwrotne, monitorować rankingi słów kluczowych i wiele więcej. Jakie są główne funkcje Ahrefs? Analiza linków zwrotnych: Ahrefs dostarcza szczegółowych informacji na temat linków prowadzących do Twojej strony, co jest kluczowe dla budowania strategii link building. Badanie słów kluczowych: Narzędzie pozwala na analizę słów kluczowych, co umożliwia...Czym jest Ahrefs? lub Majestic przy pomocy APIAPI (Application Programming Interface) to zestaw reguł i narzędzi umożliwiających komunikację między różnymi aplikacjami. API to interfejs, który pozwala jednemu oprogramowaniu na korzystanie z funkcji innego oprogramowania, bez konieczności bezpośredniego dostępu do jego kodu źródłowego. API jest nieodzownym elementem nowoczesnych aplikacji, umożliwiając integrację różnych usług i systemów. Gdzie i kiedy można używać API? API jest szeroko stosowane w tworzeniu stron internetowych, aplikacji mobilnych oraz w integracji systemów IT. Na przykład,...Czym jest API?. Pozwala to na pozyskanie dodatkowych danych i zebranie ich w jednym, kompleksowym raporcie. 

Instalacja narzędzia i wybór pakietu

Screaming Frog SEO Spider jest dostępny w wersji bezpłatnej oraz bardziej zaawansowanej płatnej wersji. Obecnie (luty 2024) cena za roczny dostęp do płatnej wersji narzędzia to 239 euro. Kwotę tę można obniżyć przy wykupieniu minimum 5 licencji. 

Przed wyborem najbardziej dogodnego pakietu warto zastanowić się jednak nad swoimi potrzebami i wymaganiami dotyczącymi narzędzia, gdyż w wielu przypadkach nawet bezpłatna wersja może okazać się wystarczająca.

Największym blokerem bezpłatnej wersji jest możliwość crawlowania jedynie 500 adresów URLURL (Uniform Resource Locator) to standardowy format adresu internetowego, który pozwala na jednoznaczne określenie lokalizacji zasobu w sieci. Jest to kluczowy element, który umożliwia dostęp do stron internetowych, plików, obrazów i innych zasobów dostępnych online. URL jest powszechnie używany w przeglądarkach internetowych, aplikacjach i systemach zarządzania treścią. URL składa się z kilku elementów, które razem tworzą pełny adres. Najważniejsze z nich to: Protokół - Określa sposób komunikacji z serwerem. Najczęściej używanymi protokołami...Czym jest URL?. W przypadku analizy serwisu posiadającego większą liczbę podstron Screaming Frog wskaże dane dotyczące losowych 500 adresów. 

Funkcje dostępne w wersji bezpłatnej i płatnej:

  • Wykrywanie uszkodzonych linków, błędów i przekierowań.
  • Analiza tytułów stron i meta description.
  • Analiza dyrektyw dla robotów.
  • Audyt atrybutów hreflang.
  • Odkryj dokładnie zduplikowane strony.
  • Generowanie mapy witryny w formacie XML.
  • Wizualizacja witryny.

Funkcje dostępne tylko w wersji płatnej:

  • Harmonogramowanie.
  • Konfiguracja crawla.
  • Zapisywanie i ponowne załadowywanie crawli.
  • Renderowanie kodu JavaScript.
  • Porównanie crawli.
  • Wykrywanie danych strukturalnych.
  • Sprawdzanie pisowni i gramatyki.
  • Wyciąganie niestandardowych danych.
  • Integracja z Google Analytics.
  • Integracja z Google Search Console.
  • Integracja z PageSpeed Insights.
  • Raport crawla Looker Studio.
  • Bezpłatne wsparcie techniczne.

Instalacja Screaming Frog — krok po kroku

Krok 1 – pobranie programu na komputer

Screaming Frog nie jest narzędziem opartym na chmurze, dlatego w celu skorzystania z niego, należy pobrać program na swoje urządzenie. Narzędzie można pobrać ze strony producenta: https://www.screamingfrog.co.uk , klikając w przycisk Download. W tym momencie można również wybrać swój system operacyjny. Screaming Frog jest dostępny na systemy Windows, Mac Os i Linux.

Jak pobrać na komputer Screaming Frog

Krok 2 – Instalacja

Po pobraniu programu na komputer wystarczy przejść do folderu, w którym zapisywane są pobrane elementy i wybranie pliku Screaming Frog z rozszerzeniem „.exe”. Następnie należy podążać za wskazówkami instalatora. 

Krok 3 – Zmiana ustawień zapisywania danych

Nie jest to krok wymagany, jednak warto go rozważyć. Firma Screaming Frog rekomenduje zmianę miejsca zapisywania danych z pamięci na dysk SSD. Zmianę ustawień można wykonać w narzędziu, przechodząc po ścieżce: File > Settings > Storage Mode > wybór opcji Database Storage.  Korzyścią takiego działania jest zwiększenie wydajności i stabilności narzędzia przy przetwarzaniu dużych zbiorów danych, zapewniając jednocześnie większe bezpieczeństwo danych w przypadku awarii systemu. 

Screaming Frog — jak zacząć pracę z narzędziem i włączyć pierwszy crawl?

Przed włączeniem pierwszego crawla serwisu warto dobrze zapoznać się z podstawowymi funkcjonalnościami narzędzia i poznać jego poszczególne sekcje.

W pierwszej kolejności warto przyjrzeć się opcjom Mode i Configuration. To właśnie w tym miejscu należy skonfigurować najważniejsze ustawienia swojego crawla. 

Screaming Frog Mode i configuration

Ustawienia — Mode

Rozwijając sekcję Mode, należy wybrać jedną z 4 możliwych opcji: Spider, List, SERPSERP (Search Engine Results Page) – to strona wyników wyszukiwania wyświetlana przez wyszukiwarki internetowe, takie jak Google, po wpisaniu zapytania przez użytkownika. SERP składa się zarówno z wyników organicznych, jak i płatnych, które odpowiadają na konkretne zapytanie. Wyniki organiczne są generowane na podstawie algorytmu wyszukiwarki, który analizuje i ocenia treść stron internetowych, podczas gdy wyniki płatne to reklamy, za które firmy płacą, by być wyświetlane wyżej w wynikach. Co znajduje...Czym jest SERP? lub Compare. Najczęściej używane są dwie pierwsze opcje. 

Ustawienie mode w Screaming Frog

Po wybraniu funkcji Spider należy skorzystać ze wskazanego pola i wpisać w nie główny adres URL analizowanego serwisu, np. https://cyberfolks.pl/. Korzystając z tej opcji, Screaming Frog przecrawluje wszystkie adresy analizowanej podstrony.
Screaming Frog funkcja Spider

Często wykorzystywaną opcją jest również funkcja List. Po jej wybraniu zmienia się nieznacznie wygląd narzędzia. Znika wcześniej wspomniane pole do wpisania adresu URL, a pojawia się opcja Upload. W tym miejscu można załadować wybraną przez siebie listę adresów URL. Podczas korzystania z opcji List, crawler przeanalizuje jedynie udostępnioną liczbę adresów, a nie cały serwis.

jak zrobić upload url w Screaming Frog

Opcja SERP pozwala na sprawdzenie, jak znaczniki meta title i meta description są widoczne w wynikach wyszukiwania. Natomiast opcja Compare pozwala na porównanie wyników crawla z poprzednim skanowaniem serwisu. Jest to szczególnie przydatne w przypadku przeprowadzania audytów SEO po migracji serwisu lub w przypadku analiz nowych wdrożeń.

Ustawienia — Configuration

W tym miejscu można spersonalizować crawla i dopasować ustawienia do swoich potrzeb. Przykładowe opcje, które można w tym miejscu zmienić to:

Respektowanie pliku robots.txt

Przechodząc ścieżką Configuration > robots.txt można zadecydować, czy Screaming Frog ma respektować dyrektywy w robots.txtRobots.txt to plik tekstowy umieszczany na serwerze witryny internetowej, który zawiera dyrektywy dla robotów internetowych (takich jak Googlebot), informujące je, które części witryny powinny być przeglądane lub ignorowane. Jest to standardowy sposób komunikacji między właścicielami witryn a robotami internetowymi w celu kontrolowania indeksacji treści przez wyszukiwarki internetowe. W pliku robots.txt można wyróżnić różne instrukcje dotyczące zachowania robotów internetowych, takie jak: Disallow: Określa, które katalogi lub pliki powinny być ignorowane przez...Czym jest Robots.txt?, ignorować je lub czy ma je ignorować, lecz zaraportować ich status w raporcie. Ostatnia opcja okaże się w większości przypadków najwygodniejsza, gdyż dzięki niej Screaming Frog dostanie się do wszystkich adresów, a jednocześnie wskaże te, które są niedostępne dla robotów wyszukiwarek. 

screaming frog robots.txt

Funkcja Include oraz Exlude

Screaming Frog daje możliwość zawężenia crawla tylko do adresów, które posiadają lub nie posiadają danego elementu w adresie URL, np. katalogu. Dobrym przykładem jest chęć analizy jedynie sekcji blogowej danej strony internetowej. Zakładając, że każdy artykuł blogowy posiada w adresie URL katalog /blog/ można wdrożyć w ustawieniach Include dyrektywę z tym katalogiem. W rezultacie otrzymasz raport zawierający jedynie adresy URL z katalogiem /blog/. W odwrotnej sytuacji, jeżeli chcesz przeanalizować cały serwis z wyjątkiem bloga, taką samą dyrektywę należy wpisać w ustawieniach Exclude. 

Crawl include i exlude w screaming frog

Szybkość crawla

Korzystając z funkcji Speed, można zarządzać szybkością przetwarzania crawla poprzez ustawienie maksymalnej ilości jednocześnie prowadzonych wątków lub maksymalną liczbę analizowanych adresów URL w ciągu sekundy. To przydatna funkcjonalność, jeśli zależy Ci na szybkim przeprowadzeniu analizy. Występuje jednak zagrożenie, że ustawienie zbyt dużej szybkości przetwarzania i związanym z tym dużym obciążeniem serwera, analizowany serwis może mieć problemy z długim ładowaniem się stron lub ze stabilnością w trakcie analizy.

jak zmienić szybkość speed w crawl w Screaming Frog

Funkcja User-Agent

Screaming Frog umożliwia zmianę tzw. prezentowanego user-agenta. Robot Screaming Frog odwiedzając dane adresy może przedstawiać się, np. jako bot od Google, BingBing to wyszukiwarka internetowa stworzona przez firmę Microsoft, która jest jedną z najpopularniejszych alternatyw dla Google. Umożliwia użytkownikom przeszukiwanie internetu, wyszukiwanie obrazów, filmów, map oraz wiadomości. Bing jest również zintegrowany z innymi produktami Microsoft, takimi jak system Windows oraz przeglądarka Microsoft Edge. Jak działa Bing? Bing działa na zasadzie indeksowania stron internetowych i przedstawiania wyników wyszukiwania na podstawie algorytmów, które analizują setki czynników, takich jak słowa kluczowe, jakość strony czy...Czym jest Bing?, Baidu, czy Apple, a nie jako on sam — Screaming Frog. Jest to przydatna opcja, gdyż niektóre serwisy blokują dostęp do strony w pliku robots.txt dla innych botów niż te od wyszukiwarek. 

Jak zmienić funkcję User-Agent w Screaming Frog

Połączenie z API

Omawiany crawler ma możliwość integracji poprzez API z innymi narzędziami, dzięki czemu jest w stanie przygotować raport zawierający szerszy zakres danych. Połączenie z API można ustawić przechodząc ścieżką Configuration > API Access.

Jak ustawić API Access w Screaming Frog

Włączenie crawla

Po wybraniu wszystkich ustawień i umieszczeniu adresu URL (lub listy adresów) do analizy, wystarczy kliknąć przycisk Start, aby Screaming Frog rozpoczął pracę. W trakcie działania, po prawej stronie ekranu można obserwować progres prac, a dokładnie wartość procentową liczby przecrawlowanych adresów. 

Jak włączyć crawl w Screaming Frog

Analiza otrzymanego raportu

Ukończony crawl można analizować według podziału tematycznego. Screaming Frog podzielił swoje raporty na sekcje, które koncentrują się na konkretnym elemencie, np. na tytułach stron (Page Titles), nagłówkach (H1, H2), czy adresach grafik (Images). Przejście do każdej sekcji jest bardzo intuicyjne, należy poruszać się po zakładkach znajdujących się poniżej ciemnego paska z logo firmy. 

jak przechodzić po zakładkach po ukończeniu crawlu w Screaming Frog

Nie wszystkie zakładki są widoczne domyślnie, część z nich jest dostępna dopiero po rozwinięciu strzałki. 

Co więcej, wszystkie dane można eksportować do pliku Excel lub Google Sheets, co ułatwia dalszą pracę nad otrzymanymi danymi. Można to zrobić korzystając z funkcji Export.

Jak eksportować dane do Excel lub Google Sheets ze Screaming Frog

Warte uwagi funkcje Screaming Frog

Crawler Screaming Frog można wykorzystywać do bardziej i mniej  zaawansowanych analiz, przydatnych podczas przeprowadzania audytu SEO i nie tylko. Im lepiej poznasz to narzędzie, tym więcej możliwości się przed Tobą otworzy.

Wykrywanie łańcuchów przekierowań

Optymalizując stronę internetową względem wyszukiwarek, specjaliści SEO unikają łańcuchów przekierowań i starają się nim zapobiegać. Screaming Frog może okazać się przydatny przy wykrywaniu tego typu błędów. 

Pierwszym krokiem do przeprowadzenia takiej analizy jest konfiguracja crawla. Przed klinięciem Start, należy przejść do opcji Configuration > Spider > Crawl > Advanced > Always Follow Redirects. 

Jak wykrywać łańcuchy przekierowań w Screaming Frog

Następnie po przeprowadzeniu crawla serwisu należy przejściu do raportu  Redirects Chains poprzez ścieżkę Reports > Redirects > Redirects Chains. 

Jak ustawić Redirects Chains w Screaming Frog

Funkcja Custom Extraction

Opcja Custom Extraction okaże się przydatna w momencie, w którym potrzebujesz „wyciągnąć” określony fragment treści strony internetowej z wielu adresów, np. treść wszystkich opisów kategorii ze swojego e-commerce, informację o dostępności produktów w sklepie lub informacje o dacie publikacji artykułów blogowych. 

Jak to zrobić? Najpierw wejdź na przykładowy adres URL, który wiesz, że posiada potrzebne Ci dane, np. artykuł blogowy z umieszczoną datą. Najedź myszką na element, który Cię interesuje, kliknij prawym przyciskiem myszy i wybierz opcję Zbadaj. Najedź na fragment kodu zawierający wybrany element na stronie i skopiuj jego ścieżkę XPath. 

Następnie przejdź do Screaming Frog, wybierz opcje Configurattion > Custom > Custom Extraction, kliknij przycisk Add i wklej skopiowany XPath. 

Jak ustawić funkcję Custom Extraction w Screaming Frog

Po przeprowadzeniu crawla, rezultaty znajdziesz w sekcji Custom Extracttion wśród innych raportów z danymi. 

Generowanie sitemap w formacie XML

Podstawową kwestią podczas optymalizacji stron internetowych jest zbudowanie pliku sitemap.xmlSitemap.xml jest plikiem XML zawierającym strukturalne informacje o witrynie internetowej, które są przeznaczone dla wyszukiwarek internetowych. Służy on jako mapa strony, która pomaga robotom wyszukiwarek (takim jak Googlebot) zaindeksować i zrozumieć strukturę witryny oraz zidentyfikować najważniejsze i najbardziej aktualne strony. Główne cele sitemap.xml to: Ułatwienie indeksacji: Wyszukiwarki internetowe korzystają z sitemap.xml, aby dowiedzieć się o istnieniu nowych stron lub aktualizacjach na witrynie. Umożliwia to szybsze i skuteczniejsze indeksowanie treści przez...Czym jest Sitemap.xml?. Często jest to możliwe z poziomu CMSCMS (Content Management System) to system zarządzania treścią, czyli oprogramowanie, które umożliwia tworzenie, edycję, publikację i zarządzanie treściami na stronach internetowych bez konieczności posiadania zaawansowanej wiedzy technicznej. CMS jest szeroko stosowany przez osoby i organizacje zajmujące się tworzeniem i utrzymaniem stron internetowych, ponieważ ułatwia zarządzanie treściami oraz umożliwia współpracę wielu użytkownikom. CMS jest kluczowym narzędziem dla osób i firm, które chcą prowadzić stronę internetową, bloga, czy sklep internetowy w sposób prosty...Czym jest CMS?, jednak zdarzają się przypadki, że mapę strony trzeba przygotować ręcznie. W takiej sytuacji można skorzystać ze Screaming Frog.

Po przeprowadzeniu crawla serwisu można skorzystać z opcji Sitemaps > XML Sitemap. Domyślnie narzędzie umieści w mapie strony XML tylko podstrony z kodem 200, a pominie strony z dyrektywą NoIndex, strony zablokowane przez robots.txt, strony z tagiem kanonicznym, kolejne strony paginacji, czy adresy plików PDF. Screaming Frog umożliwia również wygenerowanie osobnej mapy dla adresów grafik. 

Jak wygenerować sitemap XML w Screaming Frog

Tak przygotowaną mapę strony należy jedynie przesłać na serwer oraz do Google Search Console. 

Różne modele prezentacji danych

W Screaming Frog dane można przedstawiać nie tylko w formie tabel i danych umieszczonych w arkuszach kalkulacyjnych. Można je również przedstawiać w formie graficznej, np.:

  • “drzewo” z adresami URL
    Jak otworzyć grafikę drzewo w Screaming Frog
  • diagram 2D
    Jak przedstawić dane w formie diagramu 2D w Screaming Frog
  • diagram 3D
Jak przedstawić dane w formie diagramu 3D w Screaming Frog
  • „chmura” słów
Jak przedstawić dane w formie diagramu chmury w Screaming Frog

Screaming Frog SEO Spider — zalety i wady

Screaming Frog jest bez wątpienia niezwykle przydatnym narzędziem dla każdego specjalisty SEO, ale także specjalistów ds. content marketinguContent marketing, to inaczej marketing treści. Jest opracowaną strategią marketingową, wykorzystującą takie narzędzia jak: filmy, tekst, grafika, materiały dźwiękowe mające na celu utrzymać relację marka-klient. Celem content marketingu jest skłonienie ludzi, aby poprzez przeczytanie tekstu, obejrzenie materiału, kojarzyli naszą markę, a w konsekwencji stali się lojalnymi klientami marki. Działania content marketingowe ukierunkowywane są na konkretne grupy odbiorców. Poprzez dostarczanie wartościowych treści, zgodnie z potrzebami i charakterystyką osób zainteresowanych Twoim produktem...Czym jest Content marketing?, czy specjalistów e-commerce. Jednak, jak każde narzędzie, posiada zarówno zalety, jak i wady. Przyjrzyjmy się im bliżej.

ZaletyWady
Szeroka gama funkcjonalnościPełna gama funkcjonalności dopiero po wykupieniu płatnej wersji narzędzia
Intuicyjny interfejsStosunkowo duże obciążenie komputera podczas crawlowania — spowolnienie działania sprzętu
Możliwość eksportu danych do arkusza kalkulacyjnegoBrak automatycznych aktualizacji — należy je przeprowadzać ręcznie
Możliwość integracji z innymi narzędziami poprzez APIInterfejs dostępny tylko w języku angielskim
Możliwość korzystania z bezpłatnej wersjiMateriały edukacyjne ze strony firmy dostępne tylko w języku angielskim

Screaming Frog — czy warto zainteresować się tym narzędziem?

Zdecydowanie tak! Screaming Frog SEO Spider to narzędzie, które zostanie docenione przez każdego, kto miał cokolwiek do czynienia z optymalizacją stron internetowych. Chociaż mnogość funkcji może być początkowo przytłaczająca, wraz z lepszym poznaniem programu, ogromna funkcjonalność crawlera okaże się jedynie zaletą. Przed kupieniem licencji na pełną wersję, warto przetestować go na bezpłatnej wersji, zapoznać się z podstawowymi funkcjami i przekonać się, czy spełnia Twoje oczekiwania.

Autorka:
Aleksandra Podżorska — SEO Consultant w agencji marketingowej Harbingers.

>
Aleksandra Podżorska
SEO Consultant w agencji marketingowej Harbingers

Dodaj komentarz

Twój adres e-mail nie będzie opublikowany.

Polecane dla Ciebie

Szukasz dalej?

Przeglądaj wg dat
  • Przeglądaj wg dat
  • styczeń 2025
  • grudzień 2024
  • listopad 2024
  • październik 2024
  • wrzesień 2024
  • sierpień 2024
  • lipiec 2024
  • czerwiec 2024
  • maj 2024
  • kwiecień 2024
  • marzec 2024
  • luty 2024
  • styczeń 2024
  • grudzień 2023
  • listopad 2023
  • październik 2023
  • wrzesień 2023
  • sierpień 2023
  • lipiec 2023
  • czerwiec 2023
  • maj 2023
  • kwiecień 2023
  • marzec 2023
  • luty 2023
  • styczeń 2023
  • grudzień 2022
  • listopad 2022
  • październik 2022
  • wrzesień 2022
  • sierpień 2022
  • lipiec 2022
  • czerwiec 2022
  • maj 2022
  • kwiecień 2022
  • marzec 2022
  • luty 2022
  • styczeń 2022
  • grudzień 2021
  • listopad 2021
  • październik 2021
  • wrzesień 2021
  • sierpień 2021
  • lipiec 2021
  • czerwiec 2021
  • maj 2021
  • kwiecień 2021
  • marzec 2021
  • luty 2021
  • styczeń 2021
  • grudzień 2020
  • listopad 2020
  • październik 2020
  • wrzesień 2020
  • sierpień 2020
  • lipiec 2020
  • czerwiec 2020
  • maj 2020
  • kwiecień 2020
  • marzec 2020
  • luty 2020
  • styczeń 2020
  • grudzień 2019
  • listopad 2019
  • październik 2019
  • wrzesień 2019
  • sierpień 2019
  • lipiec 2019
  • czerwiec 2019
  • maj 2019
  • kwiecień 2019
  • marzec 2019
  • styczeń 2019
  • grudzień 2018
  • listopad 2018
  • październik 2018
  • sierpień 2018
  • lipiec 2018
  • maj 2018
  • kwiecień 2018
  • marzec 2018
  • styczeń 2018
  • grudzień 2017
  • październik 2017
  • czerwiec 2017
  • kwiecień 2017
  • marzec 2017
  • luty 2017
  • styczeń 2017
  • grudzień 2016
  • listopad 2016
  • październik 2016
  • wrzesień 2016
  • sierpień 2016
  • lipiec 2016
  • czerwiec 2016
  • maj 2016
  • kwiecień 2016
  • marzec 2016
  • lipiec 2015
  • maj 2015
  • grudzień 2014
  • sierpień 2014
  • lipiec 2014
  • czerwiec 2014
  • kwiecień 2014