KOROMOON

착한 사마리아인이 되고 싶습니다.

12/27/2021

Wget 명령어


( 1 ) Wget 설명



Wget 은 가장 널리 사용되는 인터넷 프로토콜인 HTTP, HTTPS, FTP 및 FTPS 를 사용하여 파일을 검색하기 위한 무료 소프트웨어임.

비대화형 명령줄 도구로 cron 작업, X-Windows 지원이 없는 터미널 등에서 쉽게 호출할 수 있음.


아래와 같은 기능을 지원함.


- REST 및 RANGE 를 사용하여 중단된 다운로드를 재개할 수 있음

- 파일 이름 와일드 카드를 사용하고 디렉토리를 재귀적으로 미러링할 수 있음

- 다양한 언어에 대한 NLS 기반 메시지 파일

- 선택적으로 다운로드한 문서의 절대 링크를 상대 링크로 변환하여 다운로드한 문서가 로컬에서 서로 링크될 수 있도록 함

- 대부분의 UNIX 계열 운영 체제 및 Microsoft Windows 에서 실행

- HTTP 프록시 지원

- HTTP 쿠키 지원

- 지속적인 HTTP 연결 지원

- 무인/백그라운드 작업 (Unattended/Background Operation)

- 로컬 파일 타임스탬프를 사용하여 미러링 시 문서를 다시 다운로드해야 하는지 여부를 결정함

- GNU Wget 은 GNU 일반 공중 라이선스에 따라 배포됨




( 2 ) Wget 옵션


아래 wget 명령어 옵션은 현재 최신 버전인 1.21.2 버전에서 확인한 옵션임.


┌──(kali㉿kali)-[~]

└─$ wget -h

GNU Wget 1.21.2, 비대화형 네트워크 검색기.

사용법: wget [OPTION]... [URL]...


긴 옵션에 대한 필수 인수는 짧은 옵션에도 필수임.


시작:

  -V,  --version                   Wget 버전 표시하고 종료

  -h,  --help                      도움말 인쇄

  -b,  --background                시작 후 배경(background)으로 이동

  -e,  --execute=COMMAND           스타일 명령어(.wgetrc) 실행


로깅 및 입력 파일:

  -o,  --output-file=FILE          FILE 에 메시지 기록

  -a,  --append-output=FILE        FILE 에 메시지 추가

  -d,  --debug                     많은 디버깅 정보 인쇄

  -q,  --quiet                     quiet (출력 없음)

  -v,  --verbose                   자세한 정보 표시 (기본값)

  -nv, --no-verbose                turn off verboseness, without being quiet

       --report-speed=TYPE         TYPE 로 출력 대역폭 표시함. TYPE 는 비트일 수 있음.

  -i,  --input-file=FILE           로컬 또는 외부 FILE 에서 찾은 URL 다운로드

  -F,  --force-html                입력 파일을 HTML 로 취급

  -B,  --base=URL                  URL 과 관련된 HTML 입력 파일 링크(-i -F)를 확인함.

       --config=FILE               사용할 구성 파일 지정

       --no-config                 구성 파일을 읽지 않음

       --rejected-log=FILE         FILE 에 대한 URL 거부 이유 기록


다운로드:

  -t,  --tries=NUMBER              재시도 횟수를 NUMBER 로 설정 (무제한 0)

       --retry-connrefused         연결이 거부되어도 재시도

       --retry-on-http-error=ERRORS    재시도할 HTTP 오류 목록을 쉼표로 구분

  -O,  --output-document=FILE      FILE 에 문서 쓰기

  -nc, --no-clobber                기존 파일에 다운로드할 다운로드 건너뛰기 (덮어쓰기)

       --no-netrc                  .netrc 에서 자격 증명을 얻으려고 시도하지 마십시오.

  -c,  --continue                  부분적으로 다운로드된 파일을 다시 가져옴

       --start-pos=OFFSET          제로 기반(zero-based) 위치 OFFSET 에서 다운로드 시작

       --progress=TYPE             진행 게이지 유형 선택

       --show-progress             자세한 표시 모드에서 진행률 표시줄 표시

  -N,  --timestamping              로컬보다 최신 버전이 아니면 파일을 다시 검색하지 마십시오.

       --no-if-modified-since      타임스탬프 모드에서 요청을 받기 때문에 조건부 if-modified-since 를 사용하지 마십시오.

       --no-use-server-timestamps  서버에 있는 것으로 로컬 파일의 타임스탬프를 설정하지 마십시오.

  -S,  --server-response           서버 응답 표시

       --spider                    아무것도 다운로드하지 마십시오.

  -T,  --timeout=SECONDS           모든 시간 초과 값을 SECONDS 로 설정

       --dns-timeout=SECS          DNS 조회 시간 초과를 SECS 로 설정

       --connect-timeout=SECS      연결 시간 초과를 SECS로 설정

       --read-timeout=SECS         읽기 제한 시간을 SECS로 설정

  -w,  --wait=SECONDS              검색 사이에 SECONDS 대기

                                   (1개 이상의 URL 을 검색해야 하는 경우 적용)

       --waitretry=SECONDS         검색 재시도 사이에 1..SECONDS 대기

                                   (1개 이상의 URL 을 검색해야 하는 경우 적용)

       --random-wait               검색 사이의 0.5*WAIT...1.5*WAIT 초에서 대기

                                   (1개 이상의 URL 을 검색해야 하는 경우 적용)

       --no-proxy                  명시적으로 프록시 끄기

  -Q,  --quota=NUMBER              검색 할당량을 NUMBER 로 설정

       --bind-address=ADDRESS      로컬 호스트의 ADDRESS(호스트 이름 또는 IP)에 바인딩

       --limit-rate=RATE           다운로드 속도를 RATE 로 제한

       --no-dns-cache              캐싱 DNS 조회 비활성화

       --restrict-file-names=OS    파일 이름의 문자를 OS 에서 허용하는 문자로 제한

       --ignore-case               파일/디렉토리 일치 시 대소문자 무시

  -4,  --inet4-only                IPv4 주소에만 연결

  -6,  --inet6-only                IPv6 주소에만 연결

       --prefer-family=FAMILY      IPv6, IPv4 또는 없음 중 지정된 패밀리의 주소에 먼저 연결함.

       --user=USER                 ftp와 http 사용자를 모두 USER 로 설정

       --password=PASS             ftp 및 http 비밀번호를 모두 PASS 로 설정

       --ask-password              암호를 묻는 프롬프트(prompt)

       --use-askpass=COMMAND       사용자 이름과 암호를 요청하기 위한 자격 증명 처리기를 지정함. COMMAND 가 지정되지 않으면 WGET_ASKPASS 또는 SSH_ASKPASS 환경 변수가 사용됨.

       --no-iri                    IRI 지원 끄기

       --local-encoding=ENC        IRI에 대한 로컬 인코딩으로 ENC 를 사용함

       --remote-encoding=ENC       ENC 를 기본 원격 인코딩으로 사용함

       --unlink                    클로버(clobber) 전에 파일 제거

       --xattr                     확장 파일 속성에서 메타데이터 저장을 활성화


디렉토리:

  -nd, --no-directories            디렉토리를 생성하지 마십시오.

  -x,  --force-directories         디렉토리 생성을 강제함

  -nH, --no-host-directories       호스트 디렉토리를 생성하지 마십시오.

       --protocol-directories      디렉토리에서 프로토콜 이름을 사용함

  -P,  --directory-prefix=PREFIX   파일을 PREFIX/..에 저장함

       --cut-dirs=NUMBER           NUMBER 개의 원격 디렉터리 구성 요소를 무시함


HTTP 옵션:

       --http-user=USER            http 사용자를 USER 로 설정

       --http-password=PASS        http 비밀번호를 PASS 로 설정

       --no-cache                  서버 캐시 데이터 허용 안 함

       --default-page=NAME         기본 페이지 이름 변경

                                   (일반적으로 이것은 'index.html' 임)

  -E,  --adjust-extension          적절한 확장자로 HTML/CSS 문서 저장

       --ignore-length             'Content-Length' 헤더 필드 무시

       --header=STRING             헤더 사이에 STRING 삽입

       --compression=TYPE          압축, auto, gzip 및 none 중 하나를 선택하십시오. (기본값: 없음)

       --max-redirect              페이지당 허용되는 최대 리디렉션 

       --proxy-user=USER           USER 를 프록시 사용자 이름으로 설정

       --proxy-password=PASS       PASS 를 프록시 비밀번호로 설정

       --referer=URL               HTTP 요청에 'Referer: URL' 헤더 포함

       --save-headers              HTTP 헤더를 파일에 저장

  -U,  --user-agent=AGENT          Wget/VERSION 대신 AGENT 로 식별

       --no-http-keep-alive        HTTP keep-alive 비활성화 (영구 연결)

       --no-cookies                쿠키를 사용하지 마십시오.

       --load-cookies=FILE         세션 전에 FILE 에서 쿠키 로드

       --save-cookies=FILE         세션 후 쿠키를 FILE 에 저장

       --keep-session-cookies      세션(비영구) 쿠키 로드 및 저장

       --post-data=STRING          POST 메소드를 사용하여 STRING 을 데이터로 전송함

       --post-file=FILE            POST 메소드를 사용하여 FILE 의 내용을 보냄

       --method=HTTPMethod         요청에서 "HTTPMethod" 메소드 사용

       --body-data=STRING          STRING 을 데이터로 보냄. 반드시 --method 를 설정해야 함.

       --body-file=FILE            FILE 의 내용을 보냄. 반드시 --method 를 설정해야 함.

       --content-disposition       로컬 파일 이름을 선택할 때 Content-Disposition 헤더를 준수함 (EXPERIMENTAL)

       --content-on-error          서버 오류 시 수신된 내용 출력

       --auth-no-challenge         먼저 서버의 챌린지(server's chanllenge)를 기다리지 않고 기본 HTTP 인증 정보를 보냅니다.


HTTPS (SSL/TLS) 옵션:

       --secure-protocol=PR        자동, SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2 및 PFS 중 하나의 보안 프로토콜을 선택함

       --https-only                보안 HTTPS 링크만 따르십시오.

       --no-check-certificate      서버의 인증서를 확인하지 마십시오.

       --certificate=FILE          클라이언트 인증서 파일

       --certificate-type=TYPE     클라이언트 인증서 유형, PEM 또는 DER

       --private-key=FILE          개인 키 파일

       --private-key-type=TYPE     개인 키 유형, PEM 또는 DER

       --ca-certificate=FILE       CA 묶음이 있는 파일 (file with the bundle of CAs)

       --ca-directory=DIR          CA의 해시 목록이 저장되는 디렉토리

       --crl-file=FILE             CRL 묶음이 있는 파일 (file with bundle of CRLs)

       --pinnedpubkey=FILE/HASHES  공개 키(PEM/DER) 파일 또는 'sha256//' 이 앞에 있고 ';'으로 구분된 base64 인코딩 sha256 해시로 피어를 확인함. (Public key (PEM/DER) file, or any number of base64 encoded sha256 hashes preceded by 'sha256//' and separated by ';', to verify peer against.)


       --ciphers=STR               우선순위 문자열(GnuTLS) 또는 암호 목록 문자열(OpenSSL)을 직접 설정함. 주의해서 사용하십시오. 이 옵션은 --secure-protocol을 재정의함. 이 문자열의 형식과 구문은 특정 SSL/TLS 엔진에 따라 다름.


HSTS 옵션:

       --no-hsts                   HSTS 비활성화

       --hsts-file                 HSTS 데이터베이스의 경로 (기본값을 재정의함)


FTP 옵션:

       --ftp-user=USER             FTP 사용자를 USER 로 설정

       --ftp-password=PASS         FTP 비밀번호를 PASS 로 설정

       --no-remove-listing         '.listing' 파일을 제거하지 마십시오.

       --no-glob                   FTP 파일 이름 글로빙(globbing)을 끔

       --no-passive-ftp            "passive" 전송 모드 비활성화

       --preserve-permissions      원격 파일 권한 유지

       --retr-symlinks             재귀할 때 파일에 링크됨 (dir이 아님)


FTPS 옵션:

       --ftps-implicit             암시적 FTPS 사용 (기본 포트는 990)

       --ftps-resume-ssl           데이터 연결을 열 때 제어 연결에서 시작된 SSL/TLS 세션을 재개함

       --ftps-clear-data-connection    제어 채널만 암호화함; 모든 데이터는 일반 텍스트임.

       --ftps-fallback-to-ftp      FTPS 가 대상 서버에서 지원되지 않는 경우 FTP 로 대체함


WARC 옵션:

       --warc-file=FILENAME        요청/응답 데이터를 .warc.gz 파일에 저장

       --warc-header=STRING        warcinfo 레코드에 STRING 삽입

       --warc-max-size=NUMBER      WARC 파일의 최대 크기를 NUMBER 로 설정

       --warc-cdx                  CDX 인덱스 파일 쓰기

       --warc-dedup=FILENAME       이 CDX 파일에 나열된 레코드를 저장하지 마십시오.

       --no-warc-compression       GZIP 으로 WARC 파일을 압축하지 마십시오.

       --no-warc-digests           SHA1 다이제스트를 계산하지 마십시오.

       --no-warc-keep-log          WARC 레코드에 로그 파일을 저장하지 마십시오.

       --warc-tempdir=DIRECTORY    WARC 작성자가 만든 임시 파일의 위치


재귀 다운로드:

  -r,  --recursive                 재귀 다운로드 지정

  -l,  --level=NUMBER              최대 재귀 깊이 (inf 또는 무한의 경우 0)

       --delete-after              파일을 다운로드한 후 로컬에서 삭제

  -k,  --convert-links             다운로드한 HTML 또는 CSS의 링크가 로컬 파일을 가리키도록 만들기

       --convert-file-only         URL의 파일 부분만 변환함 (일반적으로 기본 이름으로 알려짐)

       --backups=N                 X 파일을 쓰기 전에 최대 N개의 백업 파일 회전 (before writing file X, rotate up to N backup files)

  -K,  --backup-converted          X 파일을 변환하기 전에 X.orig 로 백업

  -m,  --mirror                    -N -r -l inf --no-remove-listing 바로 가기

  -p,  --page-requisites           HTML 페이지를 표시하는 데 필요한 모든 이미지 등을 가져옴

       --strict-comments           HTML 주석의 엄격한(SGML) 처리 켜기


재귀적 수락/거부:

  -A,  --accept=LIST               쉼표로 구분된 허용 확장 목록

  -R,  --reject=LIST               쉼표로 구분된 거부 확장 목록

       --accept-regex=REGEX        허용된 URL과 일치하는 정규식

       --reject-regex=REGEX        거부된 URL과 일치하는 정규식

       --regex-type=TYPE           정규식 유형 (posix|pcre)

  -D,  --domains=LIST              쉼표로 구분된 허용 도메인 목록

       --exclude-domains=LIST      쉼표로 구분된 거부 도메인 목록

       --follow-ftp                HTML 문서에서 FTP 링크 따라가기

       --follow-tags=LIST          뒤따르는 HTML 태그의 쉼표로 구분된 목록

       --ignore-tags=LIST          무시된 HTML 태그의 쉼표로 구분된 목록

  -H,  --span-hosts                재귀적일 때 외부 호스트로 이동

  -L,  --relative                  상대 링크만 따라가기

  -I,  --include-directories=LIST  허용된 디렉토리 목록

       --trust-server-names        리디렉션 URL의 마지막 구성 요소에서 지정한 이름을 사용함

  -X,  --exclude-directories=LIST  제외된 디렉토리 목록

  -np, --no-parent                 상위 디렉토리로 올라가지 마십시오.


버그 보고서, 질문, 토론을 <bug-wget@gnu.org> 로 이메일로 보내거나 https://savannah.gnu.org/bugs/?func=additem&group=wget 에서 공개 문제를 이메일로 보내주십시오.




( 3 ) Wget 사용예




01. 단순 wget 명령어로 단일 파일 다운로드하기


인터넷에서 단일 파일을 다운로드하여 현재 디렉토리에 저장됨.

$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2


다운로드하는 동안 다음 정보가 포함된 진행률 표시줄이 표시됨.

다운로드 완료 퍼센트 (예: 31%)

지금까지 다운로드된 총 바이트 수 (예: 1,213,592바이트)

현재 다운로드 속도 (예: 68.2K/s)

남은 다운로드 시간 (예: 34초)


다운로드 진행 중 : 

$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2

Saving to: `strx25-0.9.2.1.tar.bz2.1'

 

31% [=================> 1,213,592   68.2K/s  eta 34s


다운로드 완료 : 

$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2

Saving to: `strx25-0.9.2.1.tar.bz2'

 

100%[======================>] 3,852,374   76.8K/s   in 55s   

 

2009-09-25 11:15:30 (68.7 KB/s) - `strx25-0.9.2.1.tar.bz2' saved [3852374/3852374]




02. wget -O 명령어를 사용하여 다른 파일 이음으로 다운로드 및 저장하기


기본적으로 wget 은 마지막 슬래시 뒤의 문자열을 파일 이름으로 선택함.

아래 명령어를 입력할 경우 "download_script.php?src_id=7701" 이름으로 파일이 저장됨.

$ wget http://www.vim.org/scripts/download_script.php?src_id=7701


만약 zip 파일 형식이어도 해당 이름으로 저장됨.

$ ls

download_script.php?src_id=7701


해당 문제를 수정할려면 -O 옵션을 사용하여 파일 이름을 지정할 수 있음.

$ wget -O taglist.zip http://www.vim.org/scripts/download_script.php?src_id=7701




03. wget --limit-rate 명령어를 사용하여 다운로드 속도/비율 지정하기


wget 을 실행하는 동안 기본적으로 전체 대역폭을 차지하려고 시도함.

특정 서버에서 대용량 파일을 다운로드하는 경우에는 허용되지 않을 수 있음.

따라서 이를 방지하기 위해서 --limit-rate 옵션을 사용하여 다운로드 속도/비율을 제한할 수 있음.


아래 명령어는 다운로드 속도를 200k 로 제한하는 예제임.

$ wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2




04. wget -c 명령어를 사용하여 불완전한 다운로드 계속하기


아래 명령어는 -c 옵션을 사용하여 중간에 중단된 다운로드를 다시 시작함.

$ wget -c http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2


이것은 중간에 중단된 매우 큰 파일 다운로드를 시작할 때 매우 유용함.

전체 다운로드를 다시 시작하는 대신 -c 옵션을 사용하여 중단된 위치에서 다시 다운로드를 시작할 수 있음.


참고로 다운로드가 중간에 중지된 경우 -c 옵션 없이 다운로드를 다시 시작하면 이전 이름의 파일이 이미 존재하므로 wget 은 자동으로 파일 이름에 .1 을 추가함. .1 이 있는 파일이 이미 있는 경우 .2 가 있는 파일 이름을 생성하여 다운로드함.




05. wget -b 명령어를 사용하여 백그라운드에서 다운로드하기


대용량 다운로드의 경우 아래와 같이 -b 옵션을 사용하여 백그라운드에서 다운로드를 실행함.

$ wget -b http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2

Continuing in background, pid 1984.

Output will be written to `wget-log'.


다운로드가 시작되고 쉘 프롬프트가 다시 표시됨.

아래와 같이 tail -f 명령어를 사용하여 다운로드 상태를 항상 확인할 수 있음.

$ tail -f wget-log

Saving to: `strx25-0.9.2.1.tar.bz2.4'

 

     0K .......... .......... .......... .......... ..........  1% 65.5K 57s

    50K .......... .......... .......... .......... ..........  2% 85.9K 49s

   100K .......... .......... .......... .......... ..........  3% 83.3K 47s

   150K .......... .......... .......... .......... ..........  5% 86.6K 45s

   200K .......... .......... .......... .......... ..........  6% 33.9K 56s

   250K .......... .......... .......... .......... ..........  7%  182M 46s

   300K .......... .......... .......... .......... ..........  9% 57.9K 47s




06. wget --user-agent 명령어를 사용하여 사용자 에이전트를 마스크하고 브라우저처럼 wget 을 표시하기


일부 웹사이트는 User-Agent 필드값이 브라우저가 아님을 식별하여 페이지 다운로드를 허용하지 않을 수 있음.

따라서 --user-agent 옵션을 사용하여 원하는 User-Agent 필드값을 입력할 수 있음.

$ wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD




07. wget --spider 명령어를 사용하여 다운로드 URL 테스트하기


예약 다운로드를 하려면 예약된 시간에 다운로드가 잘 되는지 확인해야 함.

이렇게 하려면 일정에서 아래와 같이 -spider 옵션을 추가하여 확인함.

$ wget --spider DOWNLOAD-URL


주어진 URL 이 정확하면 다음과 같이 표시됨.

$ wget --spider download-url

Spider mode enabled. Check if remote file exists.

HTTP request sent, awaiting response... 200 OK

Length: unspecified [text/html]

Remote file exists and could contain further links,

but recursion is disabled -- not retrieving.


이렇게 하면 다운로드가 예약된 시간에 성공할 수 있음.

그러나 잘못된 URL 을 제공하면 다음과 같이 오류가 발생함.

$ wget --spider download-url

Spider mode enabled. Check if remote file exists.

HTTP request sent, awaiting response... 404 Not Found

Remote file does not exist -- broken link!!!


다음 시나리오에서 --spider 옵션을 사용할 수 있음.

- 다운로드를 예약하기 전에 확인하십시오.

- 특정 간격으로 웹 사이트의 사용 가능 여부를 모니터링함.

- 북마크에서 페이지 목록을 확인하고 아직 존재하는 페이지를 찾으십시오.




08. wget --tries 명령어를 사용하여 총 재시도 횟수 늘리기


인터넷 연결에 문제가 있고 다운로드 파일이 크면 다운로드가 샐패할 가능성이 있음.

기본적으로 wget 은 다운로드를 성공시키기 위해 20번 재시도함.


필요한 경우 아래와 같이 --tries 옵션을 사용하여 재시도 횟수를 늘릴 수 있음.

$ wget --tries=75 DOWNLOAD-URL




09. wget -i 명령어를 사용하여 여러 파일/URL 다운로드하기


먼저 모든 다운로드할 파일 또는 URL 을 다음과 같이 텍스트 파일에 저장함.

$ cat > download-file-list.txt

URL1

URL2

URL3

URL4


그런 다음 아래와 같이 -i 옵션을 사용하여 인수로 위에 저장한 텍스트 파일을 지정함.

$ wget -i download-file-list.txt




10. wget --mirror 명령어를 사용하여 전체 웹사이트 다운로드하기


다음은 전체 웹사이트를 다운로드하고 로컬에서 볼 수 있도록 만들 때 실행하려는 명령어임.

$ wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL


--mirror : 미러링에 적합한 옵션을 켬

-p : 주어진 HTML 페이지를 제대로 표시하는 데 필요한 모든 파을을 다운로드함.

--convert-links : 다운로드 후 문서의 링크를 로컬에서 볼 수 있도록 변환함.

-P ./LOCAL-DIR : 모든 파일과 디렉토리를 지정된 위치에 저장함.




11. wget --reject 명령어를 사용하여 다운로드하는 동안 특정 파일 형식을 거부하기


유용한 웹사이트를 찾았지만 이미지를 다운로드하고 싶지 않다면 다음과 같이 지정할 수 있음.

$ wget --reject=gif WEBSITE-TO-BE-DOWNLOADED




12. wget -o 명령어를 사용하여 stderr 대신 로그 파일에 메시지 기록하기


로그가 터미널 대신 로그 파일에 저장하길 원할 때 사용함.

$ wget -o download.log DOWNLOAD-URL




13. wget -Q 명령어를 사용하여 특정 크기를 초과하면 다운로드 종료하기


5MB 를 초과할 때 다운로드를 중지할려면 다음과 같이 wget 명령어를 사용함.

$ wget -Q5m -i FILE-WHICH-HAS-URLS


참고로 할당량은 단일 URL 을 다운로드하는 경우 적용되지 않음.

할당량 크기에 관계없이 단일 파일을 지정하면 모든 것이 다운로드됨.

그래서 할당량은 재귀 다운로드에만 적용됨.




14. wger -r -A 명령어를 사용하여 특정 파일 형식만 다운로드하기


다음과 같은 상황에서 사용할 수 있음.

- 웹사이트에서 모든 이미지 다운로드

- 웹사이트에서 모든 비디오 다운로드

- 웹사이트에서 모든 PDF 파일 파운로드

... (특정 확장자만 다운로드 시)

$ wget -r -A.pdf http://url-to-webpage-with-pdfs/




15. wget 명령어로 FTP 다운로드하기


wget 명령어를 사용하여 아래와 같이 FTP 다운로드를 수행할 수 있음.


wget 명령어를 사용하여 익명 FTP 다운로드하기

$ wget ftp-url


사용자 이름 및 암호 인증과 함께 wget 명령어를 사용하여 FTP 다운로드하기

$ wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL




참고 사이트 : 

https://www.gnu.org/software/wget/

https://eternallybored.org/misc/wget/

https://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/


댓글 없음:

댓글 쓰기