( 1 ) Wget 설명
Wget 은 가장 널리 사용되는 인터넷 프로토콜인 HTTP, HTTPS, FTP 및 FTPS 를 사용하여 파일을 검색하기 위한 무료 소프트웨어임.
비대화형 명령줄 도구로 cron 작업, X-Windows 지원이 없는 터미널 등에서 쉽게 호출할 수 있음.
아래와 같은 기능을 지원함.
- REST 및 RANGE 를 사용하여 중단된 다운로드를 재개할 수 있음
- 파일 이름 와일드 카드를 사용하고 디렉토리를 재귀적으로 미러링할 수 있음
- 다양한 언어에 대한 NLS 기반 메시지 파일
- 선택적으로 다운로드한 문서의 절대 링크를 상대 링크로 변환하여 다운로드한 문서가 로컬에서 서로 링크될 수 있도록 함
- 대부분의 UNIX 계열 운영 체제 및 Microsoft Windows 에서 실행
- HTTP 프록시 지원
- HTTP 쿠키 지원
- 지속적인 HTTP 연결 지원
- 무인/백그라운드 작업 (Unattended/Background Operation)
- 로컬 파일 타임스탬프를 사용하여 미러링 시 문서를 다시 다운로드해야 하는지 여부를 결정함
- GNU Wget 은 GNU 일반 공중 라이선스에 따라 배포됨
( 2 ) Wget 옵션
아래 wget 명령어 옵션은 현재 최신 버전인 1.21.2 버전에서 확인한 옵션임.
┌──(kali㉿kali)-[~]
└─$ wget -h
GNU Wget 1.21.2, 비대화형 네트워크 검색기.
사용법: wget [OPTION]... [URL]...
긴 옵션에 대한 필수 인수는 짧은 옵션에도 필수임.
시작:
-V, --version Wget 버전 표시하고 종료
-h, --help 도움말 인쇄
-b, --background 시작 후 배경(background)으로 이동
-e, --execute=COMMAND 스타일 명령어(.wgetrc) 실행
로깅 및 입력 파일:
-o, --output-file=FILE FILE 에 메시지 기록
-a, --append-output=FILE FILE 에 메시지 추가
-d, --debug 많은 디버깅 정보 인쇄
-q, --quiet quiet (출력 없음)
-v, --verbose 자세한 정보 표시 (기본값)
-nv, --no-verbose turn off verboseness, without being quiet
--report-speed=TYPE TYPE 로 출력 대역폭 표시함. TYPE 는 비트일 수 있음.
-i, --input-file=FILE 로컬 또는 외부 FILE 에서 찾은 URL 다운로드
-F, --force-html 입력 파일을 HTML 로 취급
-B, --base=URL URL 과 관련된 HTML 입력 파일 링크(-i -F)를 확인함.
--config=FILE 사용할 구성 파일 지정
--no-config 구성 파일을 읽지 않음
--rejected-log=FILE FILE 에 대한 URL 거부 이유 기록
다운로드:
-t, --tries=NUMBER 재시도 횟수를 NUMBER 로 설정 (무제한 0)
--retry-connrefused 연결이 거부되어도 재시도
--retry-on-http-error=ERRORS 재시도할 HTTP 오류 목록을 쉼표로 구분
-O, --output-document=FILE FILE 에 문서 쓰기
-nc, --no-clobber 기존 파일에 다운로드할 다운로드 건너뛰기 (덮어쓰기)
--no-netrc .netrc 에서 자격 증명을 얻으려고 시도하지 마십시오.
-c, --continue 부분적으로 다운로드된 파일을 다시 가져옴
--start-pos=OFFSET 제로 기반(zero-based) 위치 OFFSET 에서 다운로드 시작
--progress=TYPE 진행 게이지 유형 선택
--show-progress 자세한 표시 모드에서 진행률 표시줄 표시
-N, --timestamping 로컬보다 최신 버전이 아니면 파일을 다시 검색하지 마십시오.
--no-if-modified-since 타임스탬프 모드에서 요청을 받기 때문에 조건부 if-modified-since 를 사용하지 마십시오.
--no-use-server-timestamps 서버에 있는 것으로 로컬 파일의 타임스탬프를 설정하지 마십시오.
-S, --server-response 서버 응답 표시
--spider 아무것도 다운로드하지 마십시오.
-T, --timeout=SECONDS 모든 시간 초과 값을 SECONDS 로 설정
--dns-timeout=SECS DNS 조회 시간 초과를 SECS 로 설정
--connect-timeout=SECS 연결 시간 초과를 SECS로 설정
--read-timeout=SECS 읽기 제한 시간을 SECS로 설정
-w, --wait=SECONDS 검색 사이에 SECONDS 대기
(1개 이상의 URL 을 검색해야 하는 경우 적용)
--waitretry=SECONDS 검색 재시도 사이에 1..SECONDS 대기
(1개 이상의 URL 을 검색해야 하는 경우 적용)
--random-wait 검색 사이의 0.5*WAIT...1.5*WAIT 초에서 대기
(1개 이상의 URL 을 검색해야 하는 경우 적용)
--no-proxy 명시적으로 프록시 끄기
-Q, --quota=NUMBER 검색 할당량을 NUMBER 로 설정
--bind-address=ADDRESS 로컬 호스트의 ADDRESS(호스트 이름 또는 IP)에 바인딩
--limit-rate=RATE 다운로드 속도를 RATE 로 제한
--no-dns-cache 캐싱 DNS 조회 비활성화
--restrict-file-names=OS 파일 이름의 문자를 OS 에서 허용하는 문자로 제한
--ignore-case 파일/디렉토리 일치 시 대소문자 무시
-4, --inet4-only IPv4 주소에만 연결
-6, --inet6-only IPv6 주소에만 연결
--prefer-family=FAMILY IPv6, IPv4 또는 없음 중 지정된 패밀리의 주소에 먼저 연결함.
--user=USER ftp와 http 사용자를 모두 USER 로 설정
--password=PASS ftp 및 http 비밀번호를 모두 PASS 로 설정
--ask-password 암호를 묻는 프롬프트(prompt)
--use-askpass=COMMAND 사용자 이름과 암호를 요청하기 위한 자격 증명 처리기를 지정함. COMMAND 가 지정되지 않으면 WGET_ASKPASS 또는 SSH_ASKPASS 환경 변수가 사용됨.
--no-iri IRI 지원 끄기
--local-encoding=ENC IRI에 대한 로컬 인코딩으로 ENC 를 사용함
--remote-encoding=ENC ENC 를 기본 원격 인코딩으로 사용함
--unlink 클로버(clobber) 전에 파일 제거
--xattr 확장 파일 속성에서 메타데이터 저장을 활성화
디렉토리:
-nd, --no-directories 디렉토리를 생성하지 마십시오.
-x, --force-directories 디렉토리 생성을 강제함
-nH, --no-host-directories 호스트 디렉토리를 생성하지 마십시오.
--protocol-directories 디렉토리에서 프로토콜 이름을 사용함
-P, --directory-prefix=PREFIX 파일을 PREFIX/..에 저장함
--cut-dirs=NUMBER NUMBER 개의 원격 디렉터리 구성 요소를 무시함
HTTP 옵션:
--http-user=USER http 사용자를 USER 로 설정
--http-password=PASS http 비밀번호를 PASS 로 설정
--no-cache 서버 캐시 데이터 허용 안 함
--default-page=NAME 기본 페이지 이름 변경
(일반적으로 이것은 'index.html' 임)
-E, --adjust-extension 적절한 확장자로 HTML/CSS 문서 저장
--ignore-length 'Content-Length' 헤더 필드 무시
--header=STRING 헤더 사이에 STRING 삽입
--compression=TYPE 압축, auto, gzip 및 none 중 하나를 선택하십시오. (기본값: 없음)
--max-redirect 페이지당 허용되는 최대 리디렉션
--proxy-user=USER USER 를 프록시 사용자 이름으로 설정
--proxy-password=PASS PASS 를 프록시 비밀번호로 설정
--referer=URL HTTP 요청에 'Referer: URL' 헤더 포함
--save-headers HTTP 헤더를 파일에 저장
-U, --user-agent=AGENT Wget/VERSION 대신 AGENT 로 식별
--no-http-keep-alive HTTP keep-alive 비활성화 (영구 연결)
--no-cookies 쿠키를 사용하지 마십시오.
--load-cookies=FILE 세션 전에 FILE 에서 쿠키 로드
--save-cookies=FILE 세션 후 쿠키를 FILE 에 저장
--keep-session-cookies 세션(비영구) 쿠키 로드 및 저장
--post-data=STRING POST 메소드를 사용하여 STRING 을 데이터로 전송함
--post-file=FILE POST 메소드를 사용하여 FILE 의 내용을 보냄
--method=HTTPMethod 요청에서 "HTTPMethod" 메소드 사용
--body-data=STRING STRING 을 데이터로 보냄. 반드시 --method 를 설정해야 함.
--body-file=FILE FILE 의 내용을 보냄. 반드시 --method 를 설정해야 함.
--content-disposition 로컬 파일 이름을 선택할 때 Content-Disposition 헤더를 준수함 (EXPERIMENTAL)
--content-on-error 서버 오류 시 수신된 내용 출력
--auth-no-challenge 먼저 서버의 챌린지(server's chanllenge)를 기다리지 않고 기본 HTTP 인증 정보를 보냅니다.
HTTPS (SSL/TLS) 옵션:
--secure-protocol=PR 자동, SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2 및 PFS 중 하나의 보안 프로토콜을 선택함
--https-only 보안 HTTPS 링크만 따르십시오.
--no-check-certificate 서버의 인증서를 확인하지 마십시오.
--certificate=FILE 클라이언트 인증서 파일
--certificate-type=TYPE 클라이언트 인증서 유형, PEM 또는 DER
--private-key=FILE 개인 키 파일
--private-key-type=TYPE 개인 키 유형, PEM 또는 DER
--ca-certificate=FILE CA 묶음이 있는 파일 (file with the bundle of CAs)
--ca-directory=DIR CA의 해시 목록이 저장되는 디렉토리
--crl-file=FILE CRL 묶음이 있는 파일 (file with bundle of CRLs)
--pinnedpubkey=FILE/HASHES 공개 키(PEM/DER) 파일 또는 'sha256//' 이 앞에 있고 ';'으로 구분된 base64 인코딩 sha256 해시로 피어를 확인함. (Public key (PEM/DER) file, or any number of base64 encoded sha256 hashes preceded by 'sha256//' and separated by ';', to verify peer against.)
--ciphers=STR 우선순위 문자열(GnuTLS) 또는 암호 목록 문자열(OpenSSL)을 직접 설정함. 주의해서 사용하십시오. 이 옵션은 --secure-protocol을 재정의함. 이 문자열의 형식과 구문은 특정 SSL/TLS 엔진에 따라 다름.
HSTS 옵션:
--no-hsts HSTS 비활성화
--hsts-file HSTS 데이터베이스의 경로 (기본값을 재정의함)
FTP 옵션:
--ftp-user=USER FTP 사용자를 USER 로 설정
--ftp-password=PASS FTP 비밀번호를 PASS 로 설정
--no-remove-listing '.listing' 파일을 제거하지 마십시오.
--no-glob FTP 파일 이름 글로빙(globbing)을 끔
--no-passive-ftp "passive" 전송 모드 비활성화
--preserve-permissions 원격 파일 권한 유지
--retr-symlinks 재귀할 때 파일에 링크됨 (dir이 아님)
FTPS 옵션:
--ftps-implicit 암시적 FTPS 사용 (기본 포트는 990)
--ftps-resume-ssl 데이터 연결을 열 때 제어 연결에서 시작된 SSL/TLS 세션을 재개함
--ftps-clear-data-connection 제어 채널만 암호화함; 모든 데이터는 일반 텍스트임.
--ftps-fallback-to-ftp FTPS 가 대상 서버에서 지원되지 않는 경우 FTP 로 대체함
WARC 옵션:
--warc-file=FILENAME 요청/응답 데이터를 .warc.gz 파일에 저장
--warc-header=STRING warcinfo 레코드에 STRING 삽입
--warc-max-size=NUMBER WARC 파일의 최대 크기를 NUMBER 로 설정
--warc-cdx CDX 인덱스 파일 쓰기
--warc-dedup=FILENAME 이 CDX 파일에 나열된 레코드를 저장하지 마십시오.
--no-warc-compression GZIP 으로 WARC 파일을 압축하지 마십시오.
--no-warc-digests SHA1 다이제스트를 계산하지 마십시오.
--no-warc-keep-log WARC 레코드에 로그 파일을 저장하지 마십시오.
--warc-tempdir=DIRECTORY WARC 작성자가 만든 임시 파일의 위치
재귀 다운로드:
-r, --recursive 재귀 다운로드 지정
-l, --level=NUMBER 최대 재귀 깊이 (inf 또는 무한의 경우 0)
--delete-after 파일을 다운로드한 후 로컬에서 삭제
-k, --convert-links 다운로드한 HTML 또는 CSS의 링크가 로컬 파일을 가리키도록 만들기
--convert-file-only URL의 파일 부분만 변환함 (일반적으로 기본 이름으로 알려짐)
--backups=N X 파일을 쓰기 전에 최대 N개의 백업 파일 회전 (before writing file X, rotate up to N backup files)
-K, --backup-converted X 파일을 변환하기 전에 X.orig 로 백업
-m, --mirror -N -r -l inf --no-remove-listing 바로 가기
-p, --page-requisites HTML 페이지를 표시하는 데 필요한 모든 이미지 등을 가져옴
--strict-comments HTML 주석의 엄격한(SGML) 처리 켜기
재귀적 수락/거부:
-A, --accept=LIST 쉼표로 구분된 허용 확장 목록
-R, --reject=LIST 쉼표로 구분된 거부 확장 목록
--accept-regex=REGEX 허용된 URL과 일치하는 정규식
--reject-regex=REGEX 거부된 URL과 일치하는 정규식
--regex-type=TYPE 정규식 유형 (posix|pcre)
-D, --domains=LIST 쉼표로 구분된 허용 도메인 목록
--exclude-domains=LIST 쉼표로 구분된 거부 도메인 목록
--follow-ftp HTML 문서에서 FTP 링크 따라가기
--follow-tags=LIST 뒤따르는 HTML 태그의 쉼표로 구분된 목록
--ignore-tags=LIST 무시된 HTML 태그의 쉼표로 구분된 목록
-H, --span-hosts 재귀적일 때 외부 호스트로 이동
-L, --relative 상대 링크만 따라가기
-I, --include-directories=LIST 허용된 디렉토리 목록
--trust-server-names 리디렉션 URL의 마지막 구성 요소에서 지정한 이름을 사용함
-X, --exclude-directories=LIST 제외된 디렉토리 목록
-np, --no-parent 상위 디렉토리로 올라가지 마십시오.
버그 보고서, 질문, 토론을 <bug-wget@gnu.org> 로 이메일로 보내거나 https://savannah.gnu.org/bugs/?func=additem&group=wget 에서 공개 문제를 이메일로 보내주십시오.
( 3 ) Wget 사용예
01. 단순 wget 명령어로 단일 파일 다운로드하기
인터넷에서 단일 파일을 다운로드하여 현재 디렉토리에 저장됨.
$ wget
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 |
다운로드하는 동안 다음 정보가 포함된 진행률 표시줄이 표시됨.
다운로드 완료 퍼센트 (예: 31%)
지금까지 다운로드된 총 바이트 수 (예: 1,213,592바이트)
현재 다운로드 속도 (예: 68.2K/s)
남은 다운로드 시간 (예: 34초)
다운로드 진행 중 :
$ wget
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 Saving to:
`strx25-0.9.2.1.tar.bz2.1'
31%
[=================> 1,213,592
68.2K/s eta 34s |
다운로드 완료 :
$ wget
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 Saving to:
`strx25-0.9.2.1.tar.bz2'
100%[======================>]
3,852,374 76.8K/s in 55s
2009-09-25
11:15:30 (68.7 KB/s) - `strx25-0.9.2.1.tar.bz2' saved [3852374/3852374] |
02. wget -O 명령어를 사용하여 다른 파일 이음으로 다운로드 및 저장하기
기본적으로 wget 은 마지막 슬래시 뒤의 문자열을 파일 이름으로 선택함.
아래 명령어를 입력할 경우 "download_script.php?src_id=7701" 이름으로 파일이 저장됨.
$ wget
http://www.vim.org/scripts/download_script.php?src_id=7701 |
만약 zip 파일 형식이어도 해당 이름으로 저장됨.
$ ls download_script.php?src_id=7701 |
해당 문제를 수정할려면 -O 옵션을 사용하여 파일 이름을 지정할 수 있음.
$ wget -O
taglist.zip http://www.vim.org/scripts/download_script.php?src_id=7701 |
03. wget --limit-rate 명령어를 사용하여 다운로드 속도/비율 지정하기
wget 을 실행하는 동안 기본적으로 전체 대역폭을 차지하려고 시도함.
특정 서버에서 대용량 파일을 다운로드하는 경우에는 허용되지 않을 수 있음.
따라서 이를 방지하기 위해서 --limit-rate 옵션을 사용하여 다운로드 속도/비율을 제한할 수 있음.
아래 명령어는 다운로드 속도를 200k 로 제한하는 예제임.
$ wget
--limit-rate=200k
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 |
04. wget -c 명령어를 사용하여 불완전한 다운로드 계속하기
아래 명령어는 -c 옵션을 사용하여 중간에 중단된 다운로드를 다시 시작함.
$ wget -c
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 |
이것은 중간에 중단된 매우 큰 파일 다운로드를 시작할 때 매우 유용함.
전체 다운로드를 다시 시작하는 대신 -c 옵션을 사용하여 중단된 위치에서 다시 다운로드를 시작할 수 있음.
참고로 다운로드가 중간에 중지된 경우 -c 옵션 없이 다운로드를 다시 시작하면 이전 이름의 파일이 이미 존재하므로 wget 은 자동으로 파일 이름에 .1 을 추가함. .1 이 있는 파일이 이미 있는 경우 .2 가 있는 파일 이름을 생성하여 다운로드함.
05. wget -b 명령어를 사용하여 백그라운드에서 다운로드하기
대용량 다운로드의 경우 아래와 같이 -b 옵션을 사용하여 백그라운드에서 다운로드를 실행함.
$ wget -b
http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2 Continuing in
background, pid 1984. Output will be
written to `wget-log'. |
다운로드가 시작되고 쉘 프롬프트가 다시 표시됨.
아래와 같이 tail -f 명령어를 사용하여 다운로드 상태를 항상 확인할 수 있음.
$ tail -f
wget-log Saving to:
`strx25-0.9.2.1.tar.bz2.4'
0K .......... .......... ..........
.......... .......... 1% 65.5K 57s 50K .......... .......... ..........
.......... .......... 2% 85.9K 49s 100K .......... .......... ..........
.......... .......... 3% 83.3K 47s 150K .......... .......... ..........
.......... .......... 5% 86.6K 45s 200K .......... .......... ..........
.......... .......... 6% 33.9K 56s 250K .......... .......... ..........
.......... .......... 7% 182M 46s 300K .......... .......... ..........
.......... .......... 9% 57.9K 47s |
06. wget --user-agent 명령어를 사용하여 사용자 에이전트를 마스크하고 브라우저처럼 wget 을 표시하기
일부 웹사이트는 User-Agent 필드값이 브라우저가 아님을 식별하여 페이지 다운로드를 허용하지 않을 수 있음.
따라서 --user-agent 옵션을 사용하여 원하는 User-Agent 필드값을 입력할 수 있음.
$ wget
--user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3)
Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD |
07. wget --spider 명령어를 사용하여 다운로드 URL 테스트하기
예약 다운로드를 하려면 예약된 시간에 다운로드가 잘 되는지 확인해야 함.
이렇게 하려면 일정에서 아래와 같이 -spider 옵션을 추가하여 확인함.
$ wget --spider
DOWNLOAD-URL |
주어진 URL 이 정확하면 다음과 같이 표시됨.
$ wget
--spider download-url Spider mode
enabled. Check if remote file exists. HTTP request
sent, awaiting response... 200 OK Length:
unspecified [text/html] Remote file
exists and could contain further links, but recursion
is disabled -- not retrieving. |
이렇게 하면 다운로드가 예약된 시간에 성공할 수 있음.
그러나 잘못된 URL 을 제공하면 다음과 같이 오류가 발생함.
$ wget
--spider download-url Spider mode
enabled. Check if remote file exists. HTTP request
sent, awaiting response... 404 Not Found Remote file
does not exist -- broken link!!! |
다음 시나리오에서 --spider 옵션을 사용할 수 있음.
- 다운로드를 예약하기 전에 확인하십시오.
- 특정 간격으로 웹 사이트의 사용 가능 여부를 모니터링함.
- 북마크에서 페이지 목록을 확인하고 아직 존재하는 페이지를 찾으십시오.
08. wget --tries 명령어를 사용하여 총 재시도 횟수 늘리기
인터넷 연결에 문제가 있고 다운로드 파일이 크면 다운로드가 샐패할 가능성이 있음.
기본적으로 wget 은 다운로드를 성공시키기 위해 20번 재시도함.
필요한 경우 아래와 같이 --tries 옵션을 사용하여 재시도 횟수를 늘릴 수 있음.
$ wget
--tries=75 DOWNLOAD-URL |
09. wget -i 명령어를 사용하여 여러 파일/URL 다운로드하기
먼저 모든 다운로드할 파일 또는 URL 을 다음과 같이 텍스트 파일에 저장함.
$ cat >
download-file-list.txt URL1 URL2 URL3 URL4 |
그런 다음 아래와 같이 -i 옵션을 사용하여 인수로 위에 저장한 텍스트 파일을 지정함.
$ wget -i
download-file-list.txt |
10. wget --mirror 명령어를 사용하여 전체 웹사이트 다운로드하기
다음은 전체 웹사이트를 다운로드하고 로컬에서 볼 수 있도록 만들 때 실행하려는 명령어임.
$ wget
--mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL |
--mirror : 미러링에 적합한 옵션을 켬
-p : 주어진 HTML 페이지를 제대로 표시하는 데 필요한 모든 파을을 다운로드함.
--convert-links : 다운로드 후 문서의 링크를 로컬에서 볼 수 있도록 변환함.
-P ./LOCAL-DIR : 모든 파일과 디렉토리를 지정된 위치에 저장함.
11. wget --reject 명령어를 사용하여 다운로드하는 동안 특정 파일 형식을 거부하기
유용한 웹사이트를 찾았지만 이미지를 다운로드하고 싶지 않다면 다음과 같이 지정할 수 있음.
$ wget
--reject=gif WEBSITE-TO-BE-DOWNLOADED |
12. wget -o 명령어를 사용하여 stderr 대신 로그 파일에 메시지 기록하기
로그가 터미널 대신 로그 파일에 저장하길 원할 때 사용함.
$ wget -o
download.log DOWNLOAD-URL |
13. wget -Q 명령어를 사용하여 특정 크기를 초과하면 다운로드 종료하기
5MB 를 초과할 때 다운로드를 중지할려면 다음과 같이 wget 명령어를 사용함.
$ wget -Q5m -i
FILE-WHICH-HAS-URLS |
참고로 할당량은 단일 URL 을 다운로드하는 경우 적용되지 않음.
할당량 크기에 관계없이 단일 파일을 지정하면 모든 것이 다운로드됨.
그래서 할당량은 재귀 다운로드에만 적용됨.
14. wger -r -A 명령어를 사용하여 특정 파일 형식만 다운로드하기
다음과 같은 상황에서 사용할 수 있음.
- 웹사이트에서 모든 이미지 다운로드
- 웹사이트에서 모든 비디오 다운로드
- 웹사이트에서 모든 PDF 파일 파운로드
... (특정 확장자만 다운로드 시)
$ wget -r
-A.pdf http://url-to-webpage-with-pdfs/ |
15. wget 명령어로 FTP 다운로드하기
wget 명령어를 사용하여 아래와 같이 FTP 다운로드를 수행할 수 있음.
wget 명령어를 사용하여 익명 FTP 다운로드하기
$ wget ftp-url |
사용자 이름 및 암호 인증과 함께 wget 명령어를 사용하여 FTP 다운로드하기
$ wget
--ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL |
참고 사이트 :
https://www.gnu.org/software/wget/
https://eternallybored.org/misc/wget/
https://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/
댓글 없음:
댓글 쓰기