의 목적은 프로그램
프로그램 SiteAnalyzer 도에 대한 분석 웹사이트의 식별하는 기술적인 오류(검색에 대한 링크,중복된 페이지,서버는 잘못된 응답)의 오류 및 누락에 SEO(빈 메타 태그를 초과하거나 전체 부재 페이지 제목 h1,분석 페이지 내용의 품질을 연결,그리고 많은 다른 SEO 매개 변수).
주요 특징
- 검사는 모든 페이지뿐만 아니라 이미지,스크립트와 문서
- 서버 응답코드를 위해 각 페이지의 웹사이트(200, 301, 302, 404, 500, 503 등니다.)
- 을 결정하는 존재와 콘텐츠 제목,키워드,설명,H1-H6
- 검색 표시"duplicate"페이지,메타 태그 및 머리글
- 의 존재를 결정 rel="표준"을 각 페이지의 웹사이트
- 파일 "robots.txt", 메타 태그 "robots"또는 X-Robots-Tag의 지시문
- 사이트의 페이지를 크롤링 할 때 "noindex"및 "nofollow"를 계산합니다.
- XPath, CSS, XQuery, RegEx로 데이터 스크랩
- 사이트 내 콘텐츠의 고유성 확인
- Google PageSpeed로 페이지 로딩 속도 확인하기
- 참조 분석 : 사이트의 모든 페이지에 대한 내부 및 외부 링크의 정의
- 사이트의 각 페이지에 대한 내부 PageRank 계산
- 그래프에서 사이트 구조 시각화
- 페이지에서 리디렉션 수 결정 (리디렉션)
- 임의의 URL 및 외부 Sitemap.xml 검색
- Sitemap "sitemap.xml"생성 (여러 파일로 분할 가능)
- 모든 매개 변수로 데이터 필터링 (복잡성이있는 필터의 유연한 구성)
- 사이트에서 임의의 콘텐츠 검색
- 보고서 내보내기 CSV, Excel 및 PDF
다릅니다 analogues
- 저렴한 요구 사항을 컴퓨터 자원을,낮은 소비 RAM
- 검사 사이트에서 거의 모든 크기 때문에 낮은 요구 사항을 컴퓨터 자원
- 휴대용 포맷(에 설치하지 않고 PC 또는 직접 이동식 미디어에서)
섹션의 설명서
- 시작 부분의 작업
- 프로그램 설정
- 기본 설정
- 검사
- SEO
- 가상 로봇.txt new
- Yandex XML
- User-Agent
- 임의의 HTTP 헤더 new
- 프록시 서버
- URL 제외
- URL 팔로우
- PageRank
- 권한 부여
- 프로그램과 함께 작업
- 세 Sitemap.xml
- 검색 임의의 URL
- Dashboard
- 데이터 내보내기
- 다국어 구사 가능
- 데이터베이스 압축
시작 부분의 작업
프로그램을 시작할 때 사용할 수 있는 사용자의 주소 표시줄에 URL 을 입력 분석된 사이트(입력할 수 있습니다 귀하의 웹 사이트의 페이지 검색 로봇의 초기 페이지로 이동 통해 사이트 홈 페이지를 포함하여,제공된 모든 링크를 할 수 있는 HTML 사용하지 않 Javascript).
누른 후"시작"버튼을 검색 엔진이 시작되는 크롤링의 모든 페이지 또는 내부 링크(외부 리소스에,그가 가지 않는다,또한 요청하지 않을 사용하여 수행 Javascript).
면 로봇이 우회하는 모든 페이지를 사용할 수 있게 보고서의 형태로 만든 테이블을 표시합 수신 데이터가 그룹으로 주제의 탭이 있습니다.
분석된 모든 프로젝트는 다음과 같의 왼쪽 부분에 프로그램에 자동으로 저장되는 데이터베이스와 함께 데이터를 받았습니다. 을 삭제하는 사이트,컨텍스트 메뉴를 사용하여 프로젝트의 목록입니다.
참고:
- 할 때 버튼을 클릭합니다"일시 중지"스캐닝 프로젝트가 중단된 병행하여 현재 진보의 검색이 데이터베이스에 저장할 수 있도록,예를 들어 프로그램을 닫으려면 계속 스캐닝 프로젝트 후 프로그램을 다시 시작합니다.
- "Stop"버튼을 인터럽트 스캔 현재 프로젝트의 가능성이없는 서비스를 제공하기 위하여 검색
프로그램 설정
메인 메뉴 섹션에 있는"설정"을 사용한 미세한 조정 작동하도록 프로그램으로 외부 사이트을 포함 7 탭:
섹션의 설정을 사용하여 지정한 사용자 지시어를 사용할 때 검사 웹 사이트입니다.
설명의 매개변수:
- 스레드의 수
- 더 많은 쓰레드의 수는,더 많은 URL 을 할 수 있 프로세스 시간 단위당합니다. 는 것을 주목해야한다 더 많은 수의 스레드를 리드의 큰 숫자를 사용하는 리소스의 PC 니다. 권장하는 설정의 스레드 수를 의 범위에서 5-10 니다.
- 검색 시간
- 을 설정하는 데 사용되는 제한의 검사 사이트에서 시간입니다. 은 시간을 측정합니다.
- 최대 깊이
- 이 매개 변수를 사용하여 깊이를 지정합의 검사 사이트입니다. 홈 페이지의 웹사이트는 중첩 level=0 니다. 예를 들어,필요한 경우 페이지를 검색"유형 somedomain.ru/catalog.html"및"somedomain.ru/catalog/tovar.html"이 경우 설정해야 합 최대 깊이=2 니다.
- 지연을 요청 사
- 설정의 일시 정지할 때 호출 스캐너를 해결하는 데 도움이됩니다. 유용한 사이트"을"약한 호스트하지 않는 무거운 하중을 견딜고 자주 호소하는 그들.
- 의 시간 제한을 요청
- 설정 제한 시간에서 응답을 요청하는 웹 사이트 프로그램입니다. 는 경우 이 페이지의 응답 속도가 느(화물),스캔 사이트에서 꽤 오랜 시간이 걸릴. 이러한 페이지를 절단 할 수 있습의 값을 지정하여 후에는 스캐너가 검사하는 다른 웹 사이트의 페이지고,따라서 지연되지 않는 방식을 전체 진행합니다.
- 의 수를 스캔한 페이지
- 에 최대 수의 페이지를 검색합니다. 유용하는 경우,예를 들어,당신은 당신을 검색할 필요가 처음 N 페이지의 사이트(이미지가 포함되어 있지 않습니다,스타일 시트,스크립트,및 다른 유형의 파일)니다.
계정으로 컨텐츠
- 이 섹션에서 데이터의 유형을 선택하는 것으로 간주됩 파서에 의해 통과하는 동안 페이지(이미지,동영상,스타일,스크립트),또는 제거하는 불필요한 정보를 해석할 때입니다.
규정 검사
- 이러한 설정에 관한 설정의 예외 경우 크롤링 사이트를 사용하여 파일의"스캐너 robots.txt 링크"유형"nofollow"또한 지시어를 사용하여"meta name=로봇은"코드에서 직접 페이지입니다.
이 섹션에서 지정하는 기본적인 분석 SEO 요소는 미래에 있는 것입니다 정확성에 대한 확인을 해석할 때 페이지,그 후의 결과로 통계가 표시됩 탭에서"SEO 통계"의 오른쪽에 주요 창니다.
이러한 설정을 통해 Yandex 검색 엔진에서 페이지의 색인을 확인할 서비스를 선택할 수 있습니다. 인덱싱 검사에는 Yandex XML 서비스 또는 Majento.ru 서비스를 사용하는 두 가지 옵션이 있습니다.
Yandex XML 서비스를 선택할 때는 시간 제한 또는 일별 제한을 고려해야합니다. Yandex 계정의 기존 제한과 관련하여 페이지 인덱싱을 확인할 때 적용 할 수 있습니다. 따라서 계정 제한으로 모든 항목을 확인할 수없는 경우가 종종 있습니다 한 번에 한 페이지 씩, 다음 시간을 기다려야합니다.
Majento.ru 서비스를 사용할 때 시간 제한이나 일일 제한은 사실상 존재하지 않습니다. 제한값이 글자 그대로 자체 제한 사항이 아닌 일반적인 Y 인스 트 풀에 병합되지만 Yandex XML의 개별 사용자 계정보다 시간당 제한이 훨씬 더 큽니다 .
사이트에서 호스팅되는 실제 robots.txt 대신 가상 robots.txt를 사용할 수 있습니다.
이것은 사이트를 테스트할 때 유용합니다. 예를 들어 인덱싱에서 닫힌 사이트의 특정 섹션을 크롤링해야 하거나 그 반대의 경우 - 크롤링할 때 고려하지 마십시오. 실제 robots.txt로 변경하고 이에 개발자의 시간을 할애합니다.
참고: URL 목록을 가져올 때 가상 robots.txt의 지시문이 고려됩니다(이 옵션이 활성화된 경우). 그렇지 않으면 URL 목록에 대해 robots.txt가 고려되지 않습니다.
섹션에서 사용자 에이전트를 지정할 수 있는 사용자 에이전트이 제출하는 프로그램에 액세스할 때 외부 웹사이트하는 동안 그들의 검사입니다. 기본적으로 설정할 사용자 지정 사용자 에이전트지만,필요할 경우 선택할 수 있는 하나의 표준 에이전트에서 가장 빈번하게 인터넷니다. 그들 가운데 같은:로봇의 검색 엔진 YandexBot,GoogleBot,MicrosoftEdge,로봇 브라우저에는 Chrome,Firefox,IE8,및 모바일 장치,아이폰,안드로이드,및 많은 다른 사람입니다.
이 옵션을 사용하면 다양한 요청에 대한 사이트 및 페이지의 반응을 분석할 수 있습니다. 예를 들어 누군가는 요청에서 Referer를 보내야 할 수 있고, 다국어 사이트의 소유자는 Accept-Language | Charset | Encoding을 전송하기를 원하고 누군가는 Accept-Encoding, Cache-Control, Pragma 헤더에서 비정상적인 데이터를 전송할 필요가 있습니다. 등 NS.
이 옵션을 사용하면 다양한 요청에 대한 사이트 및 페이지의 반응을 분석할 수 있습니다. 예를 들어 누군가는 요청에서 Referer를 보내야 할 수 있고, 다국어 사이트의 소유자는 Accept-Language | Charset | Encoding을 전송하기를 원하고 누군가는 Accept-Encoding, Cache-Control, Pragma 헤더에서 비정상적인 데이터를 전송할 필요가 있습니다. 등 NS.
할 필요가있는 경우 작동하는 프록시를 통해서 이 페이지를 추가할 수 있습의 목록을 통해 프록시 서버 프로그램이 외부 리소스에 액세스합니다. 또한,이 가능성을 확인하는 프록시에 대한 성능,비활성화 제거는 프록시 서버가 있습니다.
이 섹션은 것을 제외 바이패스 특정 페이지 및 사이트의 경우 구문 분석합니다.
검색 패턴 사용 * 및? 크롤러가 크롤링하지 않아야하는 사이트 섹션을 프로그램 데이터베이스에 포함시키지 않아야합니다. 이 목록은 지역의 목록은 예외 동의 검사 사이트(상대적으로 자신의"global"목록은 파일은"robots.txt"루트에이 웹 사이트).
마찬가지로 크롤링해야하는 URL을 추가 할 수 있습니다. 이 경우 스캔 중에 이러한 폴더 외부의 다른 모든 URL은 무시됩니다. 이 옵션은 검색 패턴 * 및?
PageRank 매개 변수를 사용하면 사이트의 탐색 구조를 분석하고 웹 리소스의 내부 링크 시스템을 최적화하여 가장 중요한 페이지로 참조 가중치를 전송할 수 있습니다.
이 프로그램에는 PageRank를 계산하는 두 가지 옵션이 있습니다. 고전 알고리즘과 현대 알고리즘입니다. 일반적으로 사이트의 내부 연결 분석을 위해서는 첫 번째 또는 두 번째 알고리즘을 사용할 때 별다른 차이가 없으므로 두 알고리즘 중 하나를 사용할 수 있습니다.
PageRank 계산 알고리즘 및 원리에 대한 자세한 설명은 "내부 PageRank 계산"문서에서 확인할 수 있습니다. >>
.htpasswd를 통해 닫히고 BASIC 서버 권한으로 보호되는 페이지에서 자동 권한 부여를위한 로그인 및 비밀번호를 입력하십시오.
프로그램과 함께 작업
후에 검사가 완료되면 당신이 볼에 포함된 정보를 차단"마스터 데이터"니다. 각각의 탭을 포함하는 데이터는 그룹과 관련하여 자신의 이름을(예를 들어,탭 타이틀의 콘텐츠를 포함할 페이지 헤더를<title></title>탭에서"이미지"의 목록이 표시됩니다 모든 이미지를 웹 사이트에서 등). 이 데이터를 분석할 수 있습 웹사이트의 내용을 찾을"broken"링크 또는 불완전하는 메타 태그가 있습니다.
필요할 경우(예:변경한 후에 웹 사이트)을 사용하여 컨텍스트 메뉴의 가능성이 있는 새로운 스캔 개별 URL 을 변경 사항을 반영하여 프로그램입니다.
이 메뉴를 사용하여 표시할 수 있습니다 중복된 페이지에 대한 관련 매개변수(복식 타이틀,설명,키워드,h1,h2,콘텐츠 페이지)니다.
코드가 0 인 URL 다시 검색"항목은 응답 코드 0 (읽기 시간 초과)을 제공하는 모든 페이지를 자동으로 다시 확인하도록 설계되었습니다. 이 응답 코드는 일반적으로 서버에 컨텐츠를 전달할 시간이없고 연결이 각각 제한 시간 초과되어 닫히고 페이지를로드 할 수없고 정보를 추출 할 수없는 경우에 제공됩니다.
이제 선택할 수 있는 탭이 표시되는 인터페이스에서의 마스터 데이터(마지막으로 가능하게 되었 이별을 말하는 오래된 메타 탭 키워드). 이 탭은 적합하지 않 화면에,또는 당신은 거의 사용하지 않는다.
열 수도 있습 숨겨진 또는 이동을 원하는 위치로 끌어 놓습니다.
표시 탭 및 열을 구성할 수 있을 사용하여 컨텍스트 메뉴의 도구 모음에서 마스터 데이터입니다. 전송의 열을 통해 수행됩니다.
를 위해 쉽게 분석의 사이트 통계 프로그램으로 데이터를 필터링 할 수 있습니다. 필터링이 가능한 두 개:
- 필드를 사용하는"빠른"필터
- 를 사용하여 사용자 정의 필터를 사용하여(고급 설정의 샘플 데이터)
빠른 필터
사용되는 빠른 데이터 필터링 및 적용에 동시에 모든 분야 현재의 탭을 누릅니다.
사용자 정의 필터
설계에 대한 광범위한 필터링을 포함할 수 있습니다 여러 조건입니다. 예를 들어,메타"title"태그를 필터링할 페이지의 길이를 초과하지 않는 70 문자와 또한 텍스트가 포함되어 있"news"니다. 그런 다음 이 필터는 다음과 같이 보일 것입니다:
따라서,적용하기 위해 사용자 정의 필터는 모든 탭을 얻을 수 있습 샘플링 데이터의 어떤 복잡합니다.
사이트의 기술 통계 탭은 추가 데이터 패널에 있으며 링크, 메타 태그, 페이지 응답 코드, 페이지 색인화 매개 변수, 콘텐츠 유형 등에 대한 통계 등 기본적인 사이트 기술 매개 변수 세트를 포함합니다. 매개 변수.
매개 변수 중 하나를 클릭하면 해당 매개 변수가 사이트 마스터 데이터의 해당 탭에서 자동으로 필터링되며 동시에 통계는 페이지 하단의 다이어그램에 표시됩니다.
SEO 통계 탭은 본격적인 사이트 감사를 수행하기위한 것이며 50 개 이상의 주요 SEO 매개 변수를 포함하며 60 개가 넘는 주요 내부 최적화 오류를 식별합니다. 오류 매핑은 여러 개의 그룹으로 나뉘며, 각 그룹은 분석 된 매개 변수 세트와 사이트의 오류를 탐지하는 필터를 포함합니다.
모든 체크 된 매개 변수에 대한 자세한 설명은이 기사에서 제공됩니다. >>
모든 필터링 결과에 대해 추가 대화없이 Excel로 신속하게 내보낼 수 있습니다 (보고서는 프로그램 폴더에 저장 됨).
이 탭에서 미리 설정되어 있는 필터를 만들 수 있는 샘플에 대한 모든 외부 링크,404 오류를,이미지,그리고 다른 매개변수의 모든 페이지에 있는 존재합니다. 그래서 지금 당신이 할 수있는,빠르고 쉽게 목록을 얻 외부 링크하는 페이지를 그들 위치를 선택하거나 모든 링크와 페이지에 있는 그들은 있습니다.
모든 보고서에서 사용할 수 있는 프로그램을 온라인에 표시되는"사용"탭의 주요 위원회는 데이터입니다. 또한,가능성이 있 Excel 로 내보내기를 사용하여 메인 메뉴.
사이트 콘텐츠 검색 기능을 사용하면 소스 코드를 검색하고 찾고있는 콘텐츠가 포함 된 웹 페이지를 표시 할 수 있습니다.
사용자 정의 필터 모듈을 사용하면 사이트에서 마이크로 마크 업, 메타 태그, 분석 시스템, 자유 텍스트 조각 또는 HTML 코드가 있는지 확인할 수 있습니다.
필터 구성 창에는 사이트 페이지에서 특정 텍스트 조각을 검색하거나 반대로 검색 결과에서 특정 텍스트 또는 HTML 코드 조각을 포함하는 페이지를 제외하기위한 여러 매개 변수가 있습니다 (이 기능은 Ctrl-F를 사용하여 페이지의 소스 코드에서 콘텐츠를 검색하는 것과 유사합니다). ...
일반적으로 스크래핑은 수동으로 처리하기 어려운 작업을 해결하는 데 사용됩니다. 이것은 새로운 온라인 상점을 만들기 위해 제품 설명을 추출하고, 가격을 모니터링하거나 광고를 모니터링하기 위해 마케팅 조사를 스크랩할 수 있습니다.
SiteAnalyzer에서 스크래핑은 추출 규칙이 구성된 데이터 추출 탭에서 구성됩니다. 규칙을 저장하고 필요한 경우 편집할 수 있습니다.
규칙 테스트 모듈도 있습니다. 기본 제공 규칙 디버거를 사용하면 사이트에 있는 모든 페이지의 HTML 콘텐츠를 빠르고 쉽게 가져오고 쿼리 작업을 테스트한 다음 SiteAnalyzer에서 데이터를 구문 분석하기 위해 디버깅된 규칙을 사용할 수 있습니다.
데이터 추출이 끝나면 수집된 모든 정보를 Excel로 내보낼 수 있습니다.
모듈 작동에 대한 자세한 연구와 가장 일반적인 규칙 및 정규식 목록은
이 도구를 사용하면 중복 페이지를 검색하고 사이트 내 텍스트의 고유성을 확인할 수 있습니다. 즉, URL 그룹 간의 고유성에 대한 일괄 검사입니다.
다음과 같은 경우에 유용할 수 있습니다.
- 전체 중복 페이지를 검색합니다(예: 매개변수가 있는 페이지와 동일한 페이지이지만 CNC 보기에 있음).
- 부분 콘텐츠 일치 검색(예: 요리 블로그에 있는 두 개의 borscht 레시피는 서로 96% 유사합니다. 이는 가능한 트래픽 잠식을 없애기 위해 기사 중 하나를 삭제해야 함을 나타냄).
- 기사 사이트에서 실수로 10년 전에 이미 작성한 주제에 대한 기사를 작성했습니다. 이 경우 도구는 그러한 기사의 중복도 감지합니다.
콘텐츠의 고유성을 확인하는 도구의 원리는 간단합니다. 프로그램은 웹사이트 URL 목록에서 콘텐츠를 다운로드하고 페이지의 텍스트 콘텐츠(HEAD 블록 및 HTML 태그 없음)를 수신한 다음 각 콘텐츠와 비교합니다. 기타 대상 포진 알고리즘을 사용합니다.
따라서 대상 포진을 사용하여 페이지의 고유성을 결정하고 고유성이 0%인 페이지의 전체 복제본과 텍스트 콘텐츠의 고유한 정도가 다양한 부분 복제본을 모두 계산할 수 있습니다. 이 프로그램은 지붕널 길이가 5일 때 작동합니다.
이 문서에서 모듈의 작동 방식에 대해 자세히 알아볼 수 있습니다.: >>
Google 검색 대기업의 PageSpeed Insights 도구를 사용하면 특정 페이지 요소의 로드 속도를 확인할 수 있으며 데스크톱 및 모바일 버전의 브라우저에 대한 관심 URL의 전체 로드 속도 점수도 표시됩니다.
Google 도구는 모든 사람에게 유용하지만 한 가지 중요한 단점이 있습니다. 즉, 그룹 URL 검사를 생성할 수 없기 때문에 사이트의 많은 페이지를 검사할 때 불편을 겪을 수 있습니다. 100개 이상의 URL에 대한 다운로드 속도를 수동으로 검사하는 데 동의하십시오 한 페이지는 귀찮고 많은 시간이 걸릴 수 있습니다.
따라서 Google PageSpeed Insights 도구의 특수 API를 통해 페이지 로드 속도의 그룹 검사를 무료로 생성할 수 있는 모듈을 만들었습니다.
주요 분석 매개변수:
- FCP (First Contentful Paint) – 첫 번째 콘텐츠를 표시할 시간입니다.
- SI (Speed Index) – 콘텐츠가 페이지에 표시되는 속도를 나타내는 지표입니다.
- LCP (Largest Contentful Paint) – 페이지에서 가장 큰 요소의 표시 시간.
- TTI (Time to Interactive) – 페이지가 사용자 상호 작용을 위해 완전히 준비되는 시간입니다.
- TBT (Total Blocking Time) – 콘텐츠의 첫 번째 렌더링부터 사용자 상호 작용을 위한 준비까지의 시간입니다.
- CLS (Cumulative Layout Shift) – 누적 레이아웃 변경. 페이지의 시각적 안정성을 측정하는 역할을 합니다.
동시에 URL 자체의 분석은 몇 번의 클릭만으로 이루어지며 Excel의 편리한 형식으로 확인의 주요 특성을 포함하여 보고서를 다운로드할 수 있습니다.
시작하기 위해 필요한 것은 API 키를 얻는 것입니다.
이 작업을 수행하는 방법은 이 문서에 설명되어 있습니다. >>
이 기능을 설계된 사이트를 만드 구조에 따라 얻어진 데이터이다. 사이트 구조에서 생성되고 중첩된 URL 이 있습니다. 후에는 생성하는 구조물의 수출에 CSV 형식으로(Excel).
- 목록에서의 프로젝트에 사용할 수 있는 질량 스캔을 선택하여 원하는 사이트와 클릭하고"다시 검사"니다. 후에는,모든 사이트는 장소에서 검사 또는 표준 모드에서습니다.
- 또한,작업의 편의를 위해 프로그램에,대량의 삭제를 선택한 사이트에서도 사용할 수 있다"제거"버튼을 누릅니다.
- 이외에 하나의 검사 사이트에,이 방법 대량으로 사이트를 추가 프로젝트 목록을 사용하여 특수한 형태,다음 사용할 수 있는 검사 흥미로운 프로젝트 전체적으로습니다.
- 프로젝트 목록을 보다 편리하게 탐색하기 위해 폴더별로 사이트를 그룹화하고 이름별로 프로젝트 목록을 필터링할 수 있습니다.
렌더링 모드를 참조 연결을 그래프에서 도움이 될 것입니다 SEO 전문가를 평가 분포의 PageRank 에 내 페이지의 웹사이트,그리고 이해하는 페이지부 링크 무게(그리고 따라서 더 많은 내부 링크를 주스의 눈에서 검색 엔진),어떤 페이지 및 사이트의 섹션은 충분하지 않 내부 링크입니다.
를 사용하여 업그레이드해야 할 수 있습니다 사이트의 구조를 SEO 전문가를 평가할 수 있는 방법을 조직 내부 링크는 웹사이트에,또한을 통해 시각적 표현의 PageRank 질량에 할당된 특정 페이지 신속하게 조정하여 현재 연결 사이트와 그로 인하여 증가의 관련성이다.
왼쪽 부분에있는 시각화의 창은 주요 도구에 대한 작업으로 그래프
- 확대에도 그래프
- 턴는 그래프 임의의 각도
- toggle 그래프 창 전체 화면 모드에서(또는 작품으로 누르면 F11)
- 숨기기/표시 노드 라벨 (Ctrl-T)
- 타에서 화살표선
- 숨기기/표시 외부 링크 (Ctrl-E)
- 스위칭 색상이 일/밤 (Ctrl-D)
- 타 전설 및 통계 그래프 (Ctrl-L)
- 저장 그래프에서 PNG format (Ctrl-S)
- 창을 시각화 설정 (Ctrl-O)
"섹션에 모양을 변경하는"표시 형식의 노드에도 그래프입니다. 에 끌기 모드 노드의"PageRank"노드 크기에 상대적으로 설정하여 그 이전에 계산된 지시자,PageRank 의 결과로,그래프에서,당신은 확실히 볼 수 있는 페이지는 더 링크 주스만,무엇을 더 적은 링크입니다.
클래식 모드에서,노드 크기에 상대적으로 설정하고 선택한 스케일 시각화 그래프.
이 그래프는 사이트 페이지의 내부 링크 질량 분포를 보여줍니다 (시각화 그래프에 표시되지 않고 시각적 형식으로 링크를 시각화 한 것이라고 말할 수 있음). 자세히보기 >>
왼쪽은 페이지 수이고 오른쪽은 링크 수입니다. 다음은 페이지 별 백분율 분위수입니다. 그래프를 그릴 때 중복 링크는 삭제됩니다 (페이지 A에서 페이지 B까지 3 개의 링크가있는 경우 하나로 계산).
예를 들어, 위의 스크린 샷을 기반으로 약 70 페이지의 사이트에 대해 :
- 1% 페이지는 ~68 들어오는 링크.
- 10% 페이지는 ~66 들어오는 링크.
- 20% 페이지는 ~15 들어오는 링크.
- 30% 페이지는 ~8 들어오는 링크.
- 40% 페이지는 ~7 들어오는 링크.
- 50% 페이지는 ~6 들어오는 링크.
- 60% 페이지는 ~5 들어오는 링크.
- 70% 페이지는 ~5 들어오는 링크.
- 80% 페이지는 ~3 들어오는 링크.
- 90% 페이지는 ~2 들어오는 링크.
즉, 들어오는 링크가 10 개 미만으로 연결되는 페이지가있는 경우 이러한 페이지가 약하게 링크 된 것으로 간주 할 수 있으며 일반적으로 링크 된 페이지의 60 %가 있습니다. 이를 기반으로 약하게 링크 된 페이지에 더 많은 내부 링크를 넣거나 (페이지가 홍보에 중요한 경우), 해당 페이지가 중요도가 낮고 우선 순위가 낮은 경우 그대로 둘 수 있습니다.
일반적으로 내부 링크가 10 개 미만인 페이지는 검색 엔진 로봇, 특히 Google 봇이 크롤링 할 가능성이 적습니다.
따라서 사이트의 총 페이지 수에서 일반적으로 링크 된 페이지의 20 ~ 30 % 만있는 사이트를 발견하면 링크 설정을 조사하거나 약하게 링크 된 페이지의 80 ~ 70 %를 처리하는 방법 (삭제, 숨기기)을 고려하는 것이 좋습니다. 인덱싱, 넣기 리디렉션).
약하게 링크 된 사이트의 예 :
잘 연결된 사이트의 예 :
페이지 로딩 속도 그래프를 통해 사이트의 성능을 평가할 수 있습니다. 명확성을 위해 페이지는 100 밀리 초 단위로 그룹 및 시간 간격으로 나뉩니다.
따라서 그래프를 기반으로 빠르게로드되는 사이트 페이지 비율 (0-100 밀리 초 이내), 평균 속도 (100-200 밀리 초) 및 충분히 오래로드 된 페이지 (400 밀리 초 이상)를 확인할 수 있습니다.
참고 : 표시된 시간은 페이지를 완전히로드하는 시간이 아니라 HTML 소스 코드를로드하는 시간입니다 (페이지 렌더링과 이미지 및 스타일과 같은 페이지 요소로드는 고려되지 않음).
세 Sitemap.xml
사이트 맵은 크롤링 된 페이지 또는 사이트 이미지를 기반으로 생성됩니다.
- 페이지로 구성된 사이트 맵을 생성 할 때 "텍스트 / html"형식의 페이지가 추가됩니다.
- 이미지로 구성된 사이트 맵을 생성 할 때 JPG, PNG, GIF 및 유사한 이미지가 추가됩니다.
를 생성하지도 사이트의 후 즉시 검사를 사용하여 사이트 주요 메뉴 항목에"프로젝트>사이트 맵을 생성하"니다.
한 사이트의 큰 볼륨과 50,000 페이지를 자동 분할은"sitemap.xml"여러 파일(이 경우,파일을 포함하는 링크가 포함 하는 직접 페이지에 대한 링크를 사이트). 이 요구사항으로 검색 엔진의 처리를 위해 사이트맵의 큰 크기입니다.
필요한 경우,양의 페이지에서"sitemap.xml"수 있는 다양한 값을 변경하여 50 000(기본값)을 원하는 값에서 주요 프로그램으로 설정합니다.
검색 임의의 URL
메뉴 항목을"URL 을 가져오기는"스캔하도록 설계되었는 임의의 목록의 URL 및 XML 사이트 맵 Sitemap.xml (지수 포함)나중에 대한 분석입니다.
검사 사용자 지정한 URL 에서 가능한 세 가지 방법:
- 를 삽입하여 목록에서 URL 을 클립보드
- 에서 부팅하는 하드 디스크 파일 형식을*.txt,and*.xml 나열 URL
- 여 파일을 다운로드 Sitemap.xml 에서 직접 사이트
의 기능 이 모드는 스캔할 때 임의의 URL 을""프로젝트에 저장되지 않습 프로그램 및 프로그램의 데이터하지 않은 데이터베이스에 추가됩니다. 도에서 사용할 수 없지 절"구조"와"대시보드".
배우의 작업에 대한 자세한 내용은"를 선택 가져오는 URL 이 문서의": 개요 새로운 버전 SiteAnalyzer 1.9.
Dashboard
대시보드 탭을 표시하는 자세한 보고서에 대한 현재의 품질 웹 사이트를 최적화합니다. 보고서가 생성된 데이터에 기초하여,탭"SEO 통계"니다. 외에도 이러한 데이터 보고서에 표시의 총 품질 인덱스 웹 사이트를 최적화,계산에 100 포인트 규모에 상대적인 현재의 정도를 최적화합니다. 그것은 가능한 데이터를 내보내려면,탭"대시보드에서"편리 PDF 보고서입니다.
데이터 내보내기
더 유연한 분석 데이터의 다운로드할 수 있 CSV 형식으로(수출하고 현재 활성화된 탭),그리고 생성 전체 보고서 Microsoft Excel 모든 탭을 한 파일에 있습니다.
때로 데이터를 내보내 Excel 도움이 될 수 있는 사용자가 선택할 수 있습니다 원하는 열과 다음 보고서를 생성과 원하는 데이터입니다.
다국어 구사 가능
프로그램의 옵션을 선택 선호하는 언어로 작동합니다.
주요 지원되는 언어:영어,러시아어,독일어,이탈리아,스페인어,프랑스어 순간에 소프트웨어로 번역되었습보다 더 열다섯(15)가장 인기있는 언어입니다.
번역하려는 경우 프로그램를 모국어로 번역 file"*.lng"당신의 언어로 번역 파일 주소로 전송"support@site-analyzer.pro"(댓글 편지로 작성해야합니다 러시아어 또는 영어)번역 포함됩니다 새로운 릴리스에서의 프로그램입니다.
더 자세한 지침에 대한 번역으로 언어에서 파일 배포("lcids.txt").
P.S. 당신은 어떤 의견에 대한 품질의 번역 의견을 보내고 수정"support@site-analyzer.pro"니다.
데이터베이스 압축
주 메뉴 항목을 축소"데이터베이스"는 작업에 대한 포장의 데이터베이스(데이터베이스에서 이전에 삭제된 프로젝트 데이터를 구성(와 유사한 조각의 데이터 개인용 컴퓨터에서)).
이 절차를 효과적인 경우에는,예를 들어,프로그램에서 삭제되었 대규모 프로젝트의 큰 숫자를 포함하는 기록합니다. 일반적으로 추천을 수행하여 주기적으로 압축 데이터의 제거하는 중복 데이터의 크기를 줄여 데이터베이스입니다.
대한 답변을 다른 질문에서 찾을 수 있습 FAQ 섹션 >>