전체 웹 사이트를 다운로드하려면 어떻게합니까?
기사 나 개별 이미지를 원할뿐 아니라 완전한 웹 사이트. 모든 것을 사이펀으로 만드는 가장 쉬운 방법은 무엇입니까??
오늘의 질문 및 답변 세션은 Q & A 웹 사이트의 커뮤니티 중심 그룹 인 Stack Exchange의 하위 부문 인 수퍼 유저의 도움으로 이루어졌습니다..
GoodFon에서 이미지로 사용할 수있는 이미지.
질문
수퍼 유저 리더 Joe에게는 간단한 요청이 있습니다.
웹 사이트에서 모든 페이지를 다운로드하려면 어떻게해야합니까??
모든 플랫폼은 괜찮습니다..
모든 페이지, 예외 없음. 조는 선교 중이다..
대답
수퍼 유저 기고가 Axxmasterr는 응용 프로그램 권장 사항을 제공합니다.
http://www.httrack.com/
HTTRACK은 전체 사이트의 내용을 복사하는 챔피언처럼 작동합니다. 이 도구는 활성 코드 컨텐츠가있는 웹 사이트를 오프라인으로 작동시키는 데 필요한 조각을 잡을 수도 있습니다. 오프라인으로 복제 할 수있는 물건에 놀랐습니다..
이 프로그램은 당신이 필요로하는 모든 것을 할 것입니다..
행복한 사냥!
우리는 HTTRACK을 진심으로 받아 들일 수 있습니다. 작업을 완료 한 성숙한 애플리케이션입니다. 비 Windows 플랫폼의 아키비스트는 어떻습니까? 또 다른 기여자 인 Jonik은 또 다른 성숙하고 강력한 도구를 제안합니다.
Wget은 이러한 종류의 작업을위한 고전적인 명령 줄 도구입니다. 대부분의 유닉스 / 리눅스 시스템과 함께 제공되며, Windows 용으로도 구할 수 있습니다 (최신 1.13.4는 여기에서 구할 수 있습니다).
당신은 다음과 같이 할 것입니다 :
wget -r --no-parent http://site.com/songs/
자세한 내용은 Wget 매뉴얼과 예제를 보거나 다음을 참고하십시오.
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
설명에 추가 할 것이 있습니까? 의견에서 소리가 나지. 다른 기술에 정통한 Stack Exchange 사용자의 답변을 더 읽고 싶습니까? 전체 토론 스레드를 여기에서 확인하십시오..