10 примеров команды wget
Мы покажем вам 10 практических примеров команды wget. wget это бесплатная утилита, которая может быть использована для извлечения файлов с использованием HTTP, HTTPS и FTP, которые рассматриваются в качестве наиболее широко используемых протоколов Интернета.Ее название происходит от World Wide Web + get. wget имеет много особенностей, что делает ее очень легкой задачей, когда речь идет о получении больших файлов, рекурсивные загрузки, несколько загрузок файлов или зеркалирование целых веб-сайтов или FTP.
wget не является интерактивным, что дает большую гибкость при его использовании. Она может быть вызвана из сценариев, хрона, терминалов и т.д. Она может работать в фоновом режиме, даже если пользователь не вошел в систему. Это позволяет начать загрузку файла и отключиться от системы, позволяя wget закончить работу.
В этой статье мы продемонстрируем использование wget через несколько практических примеров, которые вы можете использовать, чтобы выполнить некоторые из наиболее распространенных задач, таких как загрузка файлов или даже зеркального отображения целых веб – сайтов.
Для этой демонстрации, мы установим wget на Ubuntu 16.04 VPS.
Обратите внимание, что даже если это было проверено на Ubuntu 16.04, инструкции также могут быть использованы на любом другом дистрибутиве Linux.
Вход на сервер и установка wget
Первый шаг, это войти на сервер через SSH.
Вы также можете убедиться, что ваш сервер находится в актуальном состоянии с помощью следующих команд:
apt-get update apt-get upgrade
После того, как были установлены обновления, вы можете установить пакет программного обеспечение wget с помощью следующей команды:
apt-get install wget
После того, как установка будет завершена, вы можете начать использовать команду wget на сервере.
1. Команда wget для загрузки одного файла
Наиболее распространенное и простое использование wget, это скачать один файл и сохранить его в текущем каталоге.
Например, чтобы загрузить последнюю версию WordPress можно использовать следующую команду:
wget https://wordpress.org/latest.zip
Это вывод, который вы получите во время загрузки файла:
--2017-10-24 16:46:24-- https://wordpress.org/latest.zip Resolving wordpress.org (wordpress.org)... 66.155.40.249, 66.155.40.250 Connecting to wordpress.org (wordpress.org)|66.155.40.249|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 8912693 (8.5M) [application/zip] Saving to: 'latest.zip' latest.zip 100%[=============================================================================>] 8.50M 3.83MB/s in 2.2s 2017-10-24 16:46:27 (3.83 MB/s) - 'latest.zip' saved [8912693/8912693] root@destroyer:~#
Как вы можете видеть, она также показывает прогресс загрузки, текущую скорость загрузки, размер, дату, время и имя файла.
В нашем случае эта команда загрузит файл и сохранит его в текущем каталоге под именем «latest.zip».
2. Команда wget для загрузки файла и сохранение его под другим именем
Вы можете сохранить файл под другим именем. Чтобы сделать это, вы можете использовать опцию -O, как в этом примере:
wget -O wordpress.zip https://wordpress.org/latest.zip
Она загрузит и сохранит последнюю установку WordPress в текущем каталоге под названием «wordpress.zip».
3. Команда wget для загрузки файла и сохранение его в определенном каталоге
Для того, чтобы загрузить файл и сохранить его в другом каталоге, вы можете использовать опцию -P, например:
wget -P /opt/wordpress https://wordpress.org/latest.zip
Она скачает и сохранит файл в каталоге /opt/wordpress на сервере.
4. Команда wget, чтобы установить скорость загрузки
Если вы случайно загрузите огромный файл, который занимает больше времени, чем необходимо для полной загрузке, вы можете ограничить скорость загрузки для предотвращения wget с использованием полной возможной пропускной способности соединения.
Чтобы ограничить скорость загрузки, например до 300k, вы можете использовать следующую команду:
wget --limit-rate=300k https://wordpress.org/latest.zip
5. Команда wget для продолжения прерванной загрузки
Иногда, когда вы загружаете очень большой файл, который будет занимать больше времени для полного скачивания, вы можете временно потерять подключение к Интернету и загрузка будет прервана.
Для того, чтобы избежать повторного запуска всей загрузки, вы можете продолжить, откуда прерывалось скачивание с помощью опции -c:
wget -c https://wordpress.org/latest.zip
Если загрузка прервется, и вы начинаете все скачать снова без опции -c, wget будет добавлять «.1» до конца файла, так как имя файла с предыдущим именем уже существует.
6. Команда wget для загрузки в фоновом режиме
Для больших файлов, вы также можете использовать опцию -b, чтобы загрузить файл в фоновом режиме.wget -b http://example.com/big-file.zip
Вывод будет записан в файле «wget-log» в том же каталоге, и вы всегда можете проверить статус загрузки с помощью следующей команды:
tail -f wget-log
7. Команда wget, увеличение повторных попыток
Если у вас возникли проблемы с подключением к Интернету, и загрузка становится прерванной несколько раз, вы можете увеличить повторные попытки загрузить файл с опции -tries:
wget -tries=100 https://example.com/file.zip
8. Команда wget для загрузки нескольких файлов
Если вы хотите загрузить несколько файлов в одно и то же время, вы можете создать текстовый файл (например download.txt), где разместить все URL-адреса файлов, которые вы хотите загрузить. Для создания текстового файла выполните следующие действия:
touch download.txt
После этого вы можете отредактировать файл с nano и ввести все URL-адреса всех файлов, которые вы хотите загрузить:
nano download.txt
http://example.com/file1.zip http://example.com/file2.zip http://example.com/file3.zip
После сохранения файла, вы можете использовать опцию -i, чтобы загрузить все файлы, сохраненные в этом текстовом файле:
wget -i download.txt
9. Команда wget для загрузки через FTP
Вы также можете использовать wget для загрузки файла непосредственно через FTP, используя набор имя пользователя и пароль, с помощью следующей команды:
wget --ftp-user=username --ftp-password=password ftp://url-to-ftp-file
10. Команда wget для скачивания всего сайта
Вы даже можете использовать wget для загрузки всего веб-сайта, который вы можете просматривать локально, в автономном режиме, без необходимости подключения к интернету. Для этого можно использовать следующую команду:
wget --mirror --convert-links --page-requisites ----no-parent -P /path/to/download https://example-domain.com
С —mirror, вы включите все опции, необходимые для зеркального отображения.
С –convert-links, вы будете конвертировать все ссылки, так что они будут работать в автономном режиме.
С –page-requisites, загрузятся все необходимые файлы, такие как таблицы стилей CSS и изображения, необходимых для правильного отображения страницы в автономном режиме.
С –no-parent, вы можете ограничить загрузку только к определенной части сайта.
Кроме того, вы можете установить путь туда, куда мы хотим загрузить файлы с помощью команды -P, а затем путь к каталогу.
Мы рассмотрели некоторые из наиболее распространенных видов использования команды wget. Чтобы узнать больше о wget, вы всегда можете проверить его страницу с помощью команды man wget.
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.
Как использовать команду Wget
В этом руководстве расскажем вам о команде ОС Linux wget. Покажем вам 12 полезных примеров её использования. К концу руководства вы будете достаточно знать об этой команде и сможете легко качать файлы из всемирной сети интернет.
Прокачайте ваш проект, воспользовавшись скидками на VPS-хостинг в Hostinger! Большой выбор планов, как для учебных, так и для крупных коммерческих проектов.
К предложению
Что такое команда Wget?
Wget – это инструмент от GNU Project. Его можно использовать для скачивания контента и файлов с различных веб-серверов. Название состоит из комбинации World Wide Web и get. Инструмент поддерживает скачивание по FTP, SFTP, HTTP и HTTPS.
Wget создан на языке программирования C и используется на любой Unix-системе. Его также можно внедрить на Mac OS X, Microsoft Windows, AmigaOS и других популярных платформах.
Как установить Wget?
Для демонстрации работы команды wget мы будем использовать ОС Ubuntu 16.04. Но синтаксис будет одинаков и для других дистрибутивов Linux.
Прежде, зайдите на свой сервер по SSH. Выполните команду для установки wget в вашей системе:
apt-get install wget
Как только закончится установка, командой можно пользоваться. Конечно же знание базовых команд SSH облегчит вам задачу.
Примеры использования команды
Для ознакомления мы предлагаем 12 примеров использования команды wget, которые пригодятся вам для ежедневных задач. Помните также, что вы можете использовать эти команды в виде скрипта и задач cron!
Как командой Wget скачать один файл
Наиболее распространенным примером использования команды является скачивание одного файла для сохранения его в вашей текущем рабочем каталоге. Например, вам нужно скачать последнюю версию WordPress, для этого:
wget https://wordpress.org/latest.zip
После запуска команды вы увидите:
--2018-02-23 12:53:10-- https://wordpress.org/latest.zip Resolving wordpress.org (wordpress.org)... 198.143.164.252 Connecting to wordpress.org (wordpress.org)|198.143.164.252|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 9332728 (8,9M) [application/zip] Saving to: 'latest.zip' latest.zip 100%[===================>] 8,90M 6,88MB/s in 1,3s 2018-02-23 12:53:14 (6,88 MB/s) - 'latest.zip' saved [9332728/9332728]
В этом примере файл под названием latest.zip будет скачан в текущий рабочий каталог. Вам также предоставляется дополнительная информация, такая как прогресс скачивания, скорость, размер, время и дата.
Как командой Wget скачать несколько файлов
Мы можем взять предыдущий пример и скачать несколько файлов за один раз. Для этого нам потребуется создать текстовый документ и поместить туда URL для скачивания. В этом примере мы запросим последние версии WordPress, Joomla и Drupal. Введите следующее:
nano example.txt
Это создаст файл example.txt и откроет интерфейс текстового редактора. Вставьте этот текст туда:
https://wordpress.org/latest.zip https://downloads.joomla.org/cms/joomla3/3-8-5/Joomla_3-8-5-Stable-Full_Package.zip https://ftp.drupal.org/files/projects/drupal-8.4.5.zip
Как только сделаете это, вы можете использовать -i для получения всех файлов, ссылки на которые есть в текстовом файле example:
wget -i example.txt
Дождитесь завершения процесса и у вас будут установочные файлы трёх наиболее популярных систем управления контентом.
Как командой Wget скачать файлы под другими названиями
В этом примере мы сохраним файл, используя другое имя при помощи опции -O:
wget -O wordpress-install.zip https://wordpress.org/latest.zip
В этом случае скачанный ресурс будет сохранён под названием wordpress-install.zip вместо оригинального имени.
Как командой Wget скачать файл и сохранить его в специальный каталог
Вы можете скачать файл и поместить его в другом каталоге, используя опцию -P:
wget -P documents/archives/ https://wordpress.org/latest.zip
Файл, который вы хотите получить появится в каталоге documents/archives/.
Как в команде Wget ограничить скорость скачивания
Вы можете ещё и устанавливать, скорость скачивания. Это полезно, когда вы запрашиваете большие файлы и предотвращает от полного занимания канала. Данный пример применения wget устанавливает лимит в 500k:
wget --limit-rate=500k https://wordpress.org/latest.zip
Как в команде установить количество повторных попыток
Проблемы подключения к интернету могут привести к прерыванию загрузки. Чтобы этого избежать мы можем повысить количество повторных попыток с опцией -tries:
wget -tries=100 https://wordpress.org/latest.zip
Как командой Wget скачивать в фоновом режиме
Для файлов особо большого размера может оказаться полезной опция -b. Она установит скачивание в фоновом режиме.
wget -b http://example.com/beefy-file.tar.gz
В рабочем каталоге появится wget-log, который может быть использован для проверки прогресса и статуса вашего скачивания. Эта команда тоже будет полезной:
tail -f wget-log
Как командой Wget скачивать по FTP
Команда также применима для работы по FTP. Вам всего лишь нужно указать имя пользователя и пароль, как в примере ниже:
wget --ftp-user=YOUR_USERNAME --ftp-password=YOUR_PASSWORD ftp://example.com/something.tar
Как продолжить прерванное скачивание
Ваше скачивание прервётся, если потеряется связь с интернетом или произойдёт отключение энергоснабжения. Это достаточно распространённые случаи, когда вы скачиваете что-то большое по размеру. Вместо того, чтобы заново начинать, можно продолжить процесс скачивания используя ключ -c:
wget -c https://example/very-big-file.zip
Если вы запустите процесс без ключа -c, к новому файлу в конце будет добавлено .1, так как файл с таким названием уже существует.
Как командой Wget скачать сайт
Команду можно использовать для скачивания всего сайта. Это позволит просматривать сайт локально без подключения к интернету. Вот пример:
wget --mirror --convert-links --page-requisites --no-parent -P documents/websites/ https://some-website.com
Давайте разберём пример подробнее:
–mirror | Этот ключ делает ваше скачивание рекурсивным. |
–convert-links | Все ссылки будут преобразованы для офлайн использования. |
–page-requisites | Этим мы включим для скачивания все необходимые файлы, такие как CSS, JS и картинки. |
–no-parent | Это гарантирует, что каталоги по иерархии выше не будут загружены. |
-P documents/websites/ | Эта опция гарантирует, что весь контент будет направлен в указанный каталог. |
Как только процесс закончится, вы сможете открыть скачанный сайт локально и найти все файлы в каталоге documents/websites/.
Как использовать команду Wget для поиска битых ссылок
Давайте попробуем кое-что более сложное. Мы может применять команду для нахождения битых URL-ссылок, которые выдают ошибку 404 на конкретном сайте. Начнём с выполнения следующего:
wget -o wget-log -r -l 5 --spider http://example.com
-o | Собирает вывод в файл для использования позже. |
-l | Задаёт уровень рекурсии. |
-r | Делает скачивание рекурсивным. |
–spider | Устанавливает команду в режим работы «паука». |
Теперь мы можем изучить файл wget-log для поиска списка битых ссылок. Вот команда для этого:
grep -B 2 '404' wget-log | grep "http" | cut -d " " -f 4 | sort -u
Как командой Wget скачать пронумерованный файлы
Если у вас есть список файлов или изображений пронумерованные в определённом порядке, вы можете легко скачать их все, используя следующий синтаксис:
wget http://example.com/images/{1..50}.jpg
Заключение
Поздравляем! Теперь, после проработки этого руководства, вы знакомы с различными вариантами использования команды. Вы можете пользоваться ею для получения одного или нескольких файлов. К тому же, вы ознакомились с некоторыми более сложными вариантами использования этой команды, такими как: скачивание сайта целиком или нахождения битых URL-ссылок. Для более подробной информации обратитесь к официальной документации(англ.).
Может быть у вас есть какие-то советы или уловки, которыми вы бы хотели поделиться? Пишите их в комментариях ниже!
Елена имеет профессиональное техническое образование в области информационных технологий и опыт программирования на разных языках под разные платформы и системы. Более 10 лет посвятила сфере веб, работая с разными CMS, такими как: Drupal, Joomla, Magento и конечно же наиболее популярной в наши дни системой управления контентом – WordPress. Её статьи всегда технически выверены и точны, будь то обзор для WordPress или инструкции по настройке вашего VPS сервера.
10 примеров команды Wget (Linux File Downloader) в Linux
В этой статье мы рассмотрим утилиту Wget, которая загружает файлы из всемирной паутины (World Wide Web — WWW), используя широко используемые протоколы, такие как HTTP, HTTPS и FTP. Утилита
Во-первых, проверьте, установлена ли уже утилита Wget в вашей системе Linux, с помощью следующей команды.
# rpm -qa wget wget-1.12-1.4.el6.i686
Пожалуйста, установите его с помощью команды YUM, если Wget еще не установлен или вы также можете скачать бинарный пакет по адресу http://ftp.gnu.org/gnu/wget/.
Опция -y, используемая здесь, предназначена для предотвращения запроса подтверждения перед установкой любого пакета.
1. Загрузка одного файла
Команда загрузит один файл и сохранит его в текущем каталоге. Он также показывает ход загрузки, размер, дату и время загрузки.
# wget http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz --2012-10-02 11:28:30-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b Connecting to ftp.gnu.org|208.118.235.20|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 446966 (436K) [application/x-gzip] Saving to: wget-1.5.3.tar.gz 100%[===================================================================================>] 446,966 60.0K/s in 7.4s 2012-10-02 11:28:38 (58.9 KB/s) - wget-1.5.3.tar.gz
2. Скачать файл с другим именем
Используя опцию -O (в верхнем регистре), загружается файл с другим именем. Здесь мы дали имя файла wget.zip, как показано ниже.
# wget -O wget.zip http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz --2012-10-02 11:55:54-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b Connecting to ftp.gnu.org|208.118.235.20|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 446966 (436K) [application/x-gzip] Saving to: wget.zip 100%[===================================================================================>] 446,966 60.0K/s in 7.5s 2012-10-02 11:56:02 (58.5 KB/s) - wget.zip
3. Скачать несколько файлов с протоколом http и ftp
Здесь мы видим, как загрузить несколько файлов, используя протоколы HTTP и FTP, используя команду Wget.
# wget http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz ftp://ftp.gnu.org/gnu/wget/wget-1.10.1.tar.gz.sig --2012-10-02 12:11:16-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b Connecting to ftp.gnu.org|208.118.235.20|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 446966 (436K) [application/x-gzip] Saving to: wget-1.5.3.tar.gz 100%[===================================================================================>] 446,966 56.7K/s in 7.6s 2012-10-02 12:11:29 (57.1 KB/s) - wget-1.5.3.tar.gz --2012-10-02 12:11:29-- ftp://ftp.gnu.org/gnu/wget/wget-1.10.1.tar.gz.sig => wget-1.10.1.tar.gz.sig Logging in as anonymous ... Logged in! ==> SYST ... done. ==> PWD ... done. ==> TYPE I ... done. ==> CWD (1) /gnu/wget ... done. ==> SIZE wget-1.10.1.tar.gz.sig ... 65 ==> PASV ... done. ==> RETR wget-1.10.1.tar.gz.sig ... done. Length: 65 (unauthoritative) 100%[===================================================================================>] 65 --.-K/s in 0s 2012-10-02 12:11:33 (2.66 MB/s) - wget-1.10.1.tar.gz.sig FINISHED --2012-10-02 12:11:33-- Downloaded: 2 files, 437K in 7.6s (57.1 KB/s)
4. Чтение URL-адресов из файла
Вы можете хранить большое количество URL в текстовом файле и загружать их с опцией -i. Ниже мы создали tmp.txt в каталоге Wget, куда мы помещаем серии URL для загрузки.
# wget -i /wget/tmp.txt --2012-10-02 12:34:12-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz ftp://ftp.gnu.org/gnu/wget/wget-1.10.1.tar.gz.sig Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b Connecting to ftp.gnu.org|208.118.235.20|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 446966 (436K) [application/x-gzip] Saving to: wget-1.10.1.tar.gz.sig 100%[===================================================================================>] 446,966 35.0K/s in 10s 2012-10-02 12:34:23 (42.7 KB/s) - wget-1.10.1.tar.gz.sig --2012-10-02 12:34:23-- http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso Resolving mirrors.hns.net.in... 111.91.91.34, 2401:4800::111:91:91:34 Connecting to mirrors.hns.net.in|111.91.91.34|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 1761607680 (1.6G) [application/octet-stream] Saving to: CentOS-6.3-x86_64-LiveDVD.iso 45%[========================================== ] 1,262,000 51.6K/s eta 8h 17m
5. Возобновить незавершенную загрузку
В случае загрузки большого файла может произойти обрыв, в этом случае мы можем возобновить загрузку того же файла, где он был остановлен, с опцией -c. Но когда вы начнете скачивать файл без указания опции –c, Wget добавит расширение .1 в конце файла, считая загрузку новой. Поэтому рекомендуется добавлять ключ -c при загрузке больших файлов.
# wget -c http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso --2012-10-02 12:46:57-- http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso Resolving mirrors.hns.net.in... 111.91.91.34, 2401:4800::111:91:91:34 Connecting to mirrors.hns.net.in|111.91.91.34|:80... connected. HTTP request sent, awaiting response... 206 Partial Content Length: 1761607680 (1.
6. Загрузите файл с добавлением .1 в имени файла.
При запуске загрузки без опции -c Wget добавьте .1 в конец файла и начните новую загрузку. Если .1 уже существует добавить .2 в конец файла.
# wget http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso --2012-10-02 12:50:49-- http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso Resolving mirrors.hns.net.in... 111.91.91.34, 2401:4800::111:91:91:34 Connecting to mirrors.hns.net.in|111.91.91.34|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 1761607680 (1.6G) [application/octet-stream] Saving to: CentOS-6.3-x86_64-LiveDVD.iso.1 18% [================== ] 172,436 59.2K/s
Смотрите примеры файлов с расширением .1, добавленные в конце файла.
# ls -l CentOS* -rw-r--r--. 1 root root 3877262 Oct 2 12:47 CentOS-6.3-x86_64-LiveDVD.iso -rw-r--r--. 1 root root 181004 Oct 2 12:50 CentOS-6.3-x86_64-LiveDVD.iso.1
7. Скачать файлы в фоновом режиме
С опцией –b вы можете отправить загрузку в фоновом режиме сразу после начала загрузки, а журнал загрузки записывается в файл /wget/log.txt.
# wget -b /wget/log.txt ftp://ftp.iinet.net.au/debian/debian-cd/6.0.5/i386/iso-dvd/debian-6.0.5-i386-DVD-1.iso Continuing in background, pid 3550.
8. Ограничить лимиты скорости загрузки
Если опция –limit-rate = 100k, ограничение скорости загрузки ограничено 100k, и журнал загрузки будет создаваться в /wget/log.txt, как показано ниже.
# wget -c --limit-rate=100k /wget/log.txt ftp://ftp.iinet.net.au/debian/debian-cd/6.0.5/i386/iso-dvd/debian-6.0.5-i386-DVD-1.iso /wget/log.txt: Scheme missing. --2012-10-02 13:16:21-- ftp://ftp.iinet.net.au/debian/debian-cd/6.0.5/i386/iso-dvd/debian-6.0.5-i386-DVD-1.iso => debian-6.0.5-i386-DVD-1.iso esolving ftp.iinet.net.au... 203.0.178.32 Connecting to ftp.iinet.net.au|203.0.178.32|:21... connected. Logging in as anonymous ... Logged in! ==> SYST ... done. ==> PWD ... done. ==> TYPE I ... done. ==> CWD (1) /debian/debian-cd/6.0.5/i386/iso-dvd ... done. ==> SIZE debian-6.0.5-i386-DVD-1.iso ... 4691312640 ==> PASV ... done. ==> REST 2825236 ... done. ==> RETR debian-6.0.5-i386-DVD-1.iso ... done. Length: 4688487404 (4.4G), 4685662168 (4.4G) remaining (unauthoritative) 0% [ ] 3,372,160 35.5K/s eta 28h 39m
9. Ограниченная загрузка FTP и HTTP с именем пользователя и паролем
С помощью опций –http-user = username, –http-password = password или –ftp-user = username, –ftp-password = password вы можете загружать ограниченные паролем сайты HTTP или FTP, как показано ниже.
# wget --http-user=narad --http-password=password http://mirrors.hns.net.in/centos/6.3/isos/x86_64/CentOS-6.3-x86_64-LiveDVD.iso
[/bash]# wget –ftp-user=narad –ftp-password=password ftp://ftp.iinet.net.au/debian/debian-cd/6.0.5/i386/iso-dvd/debian-6.0.5-i386-DVD-1.iso[/bash]
10. Найти версию Wget и помощь
С помощью опций –version и –help вы можете просматривать версию и помощь по мере необходимости.
# wget --version # wget --help
В этой статье мы рассмотрели команду Linux Wget с опциями для ежедневных административных задач.
Спасибо за уделенное время на прочтение статьи о 10 примерах команды Wget (Linux File Downloader) в Linux!
Если возникли вопросы, задавайте их в комментариях.
Подписывайтесь на обновления нашего блога и оставайтесь в курсе новостей мира инфокоммуникаций!
Чтобы знать больше и выделяться знаниями среди толпы IT-шников, записывайтесь на курсы Cisco, курсы по кибербезопасности, полный курс по кибербезопасности, курсы DevNet (программируемые сети) от Академии Cisco, курсы Linux от Linux Professional Institute на платформе SEDICOMM University (Университет СЭДИКОММ).
Курсы Cisco и Linux с трудоустройством!
Спешите подать заявку! Осталось пару мест. Группы стартуют 22 июля, а следующая 19 августа, 23 сентября, 21 октября, 25 ноября, 16 декабря, 20 января, 24 февраля.
Что Вы получите?
- Поможем стать экспертом в сетевом администрировании и получить международные сертификаты Cisco CCNA Routing & Switching или Linux LPI.
- Предлагаем проверенную программу и учебник экспертов из Cisco Networking Academy и Linux Professional Institute, сертифицированных инструкторов и личного куратора.
- Поможем с трудоустройством и сделать карьеру. 100% наших выпускников трудоустраиваются.
Как проходит обучение?
- Проводим вечерние онлайн-лекции на нашей платформе или обучайтесь очно на базе Киевского офиса.
- Спросим у вас об удобном времени для практик и подстроимся: понимаем, что времени учиться мало.
- Если хотите индивидуальный график — обсудим и осуществим.
- Выставим четкие дедлайны для самоорганизации. Личный куратор будет на связи, чтобы ответить на вопросы, проконсультировать и мотивировать придерживаться сроков сдачи экзаменов.
А еще поможем Вам:
- отредактировать резюме;
- подготовиться к техническим интервью;
- подготовиться к конкурсу на понравившуюся вакансию;
- устроим на работу в Cisco по программе Cisco Incubator, New Graduate и Experienced. Наши студенты, которые уже работают там: жмите на #НашиВCisco Вконтакте, #НашиВCisco Facebook.
Изучаем команду wget на 12 примерах / Блог компании RUVDS.com / Хабр
Все мы иногда качаем файлы из интернета. Если для этого использовать программы с графическим интерфейсом, то всё оказывается предельно просто. Однако, при работе в командной строке Linux дело несколько усложняется. Особенно — для тех, кто не знаком с подходящими инструментами. Один из таких инструментов — чрезвычайно мощная утилита wget, которая подходит для выполнения всех видов загрузок. Предлагаем вашему вниманию двенадцать примеров, разобрав которые, можно освоить основные возможности wget.
1. Загрузка одного файла
Если всё, что нужно — это загрузка одного файла, нам подойдёт следующая конструкция:
$ wget https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
После ввода такой команды начнётся скачивание Nagios Core. В ходе этого процесса можно будет видеть данные о загрузке, например — сведения о том, какой объём данных уже загружен, текущую скорость, и то, сколько времени осталось до конца загрузки.
2. Загрузка файла и сохранение его с новым именем
Если мы хотим сохранить загруженный файл под именем, отличающимся от его исходного имени, нам пригодится команда
wget
с параметром
-O
:
$ wget -O nagios_latest https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
При таком подходе загруженный файл будет сохранён под именем
nagios_latest
.
3. Ограничение скорости загрузки файлов
При необходимости скорость загрузки файлов с помощью
wget
можно ограничить. В результате эта операция не будет занимать весь доступный канал передачи данных и не повлияет на другие процессы, связанные с сетью. Сделать это можно, используя параметр
--limit-rate
и указав ограничение скорости, выраженное в байтах (в виде обычного числа), килобайтах (добавив после числа
K
) или мегабайтах (
M
) в секунду:
$ wget ––limit-rate=500K https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Здесь задано ограничение скорости загрузки, равное 500 Кб/с.
4. Завершение прерванной загрузки
Если в ходе загрузки файлов эта операция была прервана, можно возобновить загрузку с помощью параметра
-c
команды
wget
:
$ wget –c https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Если этот параметр не использовать, то загрузка недокачанного файла начнётся сначала.
5. Фоновая загрузка файла
Если вы загружаете файл огромного размера и хотите выполнять эту операцию в фоне, сделать это можно, используя параметр
-b
:
$ wget –b https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
6. Загрузка нескольких файлов
Если имеется список URL файлов, которые надо загрузить, но вам не хочется вручную запускать загрузки этих файлов, можно использовать параметр
-I
. Однако, перед тем, как начинать загрузку, нужно создать файл, содержащий все адреса. Например, сделать это можно такой командой:
$ vi url.txt
В этот файл нужно поместить адреса — по одному в каждой строке. Далее, осталось лишь запустить
wget
, передав этой утилите только что созданный файл со списком загрузок:
$ wget –I url.txt
Выполнение этой команды приведёт к поочерёдной загрузке всех файлов из списка.
7. Увеличение общего числа попыток загрузки файла
Для того, чтобы настроить число повторных попыток загрузки файла, можно использовать параметр
--tries
:
wget ––tries=100 https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
8. Загрузка файлов с FTP-сервера
Команда загрузки файла с анонимного FTP-сервера с помощью
wget
выглядит так:
$ wget FTP-URL
Если для доступа к файлу требуются имя пользователя и пароль, то команда примет такой вид:
$ wget –-ftp-user=dan ––ftp-password=********* FTP-URL
9. Создание локальной копии веб-сайта
Если нужно загрузить содержимое целого веб-сайта, сделать это можно, воспользовавшись параметром
--mirror
:
$ wget --mirror -p --convert-links -P /home/dan xyz.com
Обратите внимание на дополнительные параметры командной строки:
-p
: производится загрузка всех файлов, необходимых для корректного отображения HTML-страниц.--convert-links
: ссылки в документах будут преобразованы для целей локального просмотра сайта.-P /home/dan
: материалы будут сохранены в папку/home/dan
.
10. Загрузка с сайта только файлов определённого типа
Для того, чтобы загрузить с сайта только файлы определённого типа, можно воспользоваться параметрами
-r -A
:
$ wget -r -A.txt Website_url
11. Пропуск файлов определённого типа
Если вы хотите скопировать целый веб-сайт, но при этом вам не нужны файлы определённого типа, отключить их загрузку можно с помощью параметра
--reject
:
$ wget --reject=png Website_url
12. Загрузка с использованием собственного .log-файла
Для того, чтобы загрузить файл и использовать при этом собственный
.log
-файл, воспользуйтесь параметром
-o
и укажите имя файла журнала:
$ wget -o wgetfile.log https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Итоги
Wget — довольно простая в использовании, но весьма полезная утилита Linux. И, на самом деле то, о чём мы рассказали — лишь малая часть того, что она умеет. Надеемся, этот обзор поможет тем, кто не был знаком с wget, оценить эту программу, и, возможно, включить её в свой повседневный арсенал инструментов командной строки.
Уважаемые читатели! Пользуетесь ли вы инструментами командной строки Linux для загрузки файлов? Если да — просим о них рассказать.
Использование wget для загрузки выбранных каталогов с сервера ftp
Я пытаюсь понять, как использовать wget для загрузки определенных каталогов с разных сайтов ftp с экономическими данными от правительства US.
В качестве простого примера я знаю, что могу загрузить весь каталог с помощью такой команды, как:
wget --timestamping --recursive --no-parent ftp://ftp.bls.gov/pub/special.requests/cew/2013/county/
Но я представляю себе запуск более сложных загрузок, где я мог бы ограничить загрузку несколькими каталогами. Поэтому я рассматривал вариант —include. Но я действительно не понимаю, как это работает. В частности, почему это не работает:
wget --timestamping --recursive -I /pub/special.requests/cew/2013/county/ ftp://ftp.bls.gov/pub/special.requests/cew/
Следующее действительно работает, в том смысле, что он загружает файлы, но загружает гораздо больше, чем мне нужно (все в каталоге 2013 года, а не только в подкаталоге округа):
wget --timestamping --recursive -I /pub/special.requests/cew/2013/ ftp://ftp.bls.gov/pub/special.requests/cew/
Я не могу сказать, то ли я чего-то не понимаю в wget, то ли моя проблема связана с чем-то более фундаментальным для серверных структур ftp.
Спасибо за помощь!
linux unix ubuntu ftp wgetПоделиться Источник Al R. 23 декабря 2013 в 21:15
2 ответа
- Howto создал обрезанное дерево каталогов при использовании wget для загрузки ftp
Я использую wget для загрузки файлов из ftp. Ftp папка имеет имя /var/www/html/ Внутри этой папки находится дерево папок & файлов, ~20 уровней. Я пытаюсь сделать загрузку ftp (не имею доступа ssh), все это с помощью wget. wget — recursive -nv —user user —password pass…
- Указание локального каталога с помощью WGET
У меня есть вопрос относительно wget, который я, кажется, не могу понять. Я использую следующую команду для загрузки всего содержимого моего сервера FTP (который работает нормально) wget -m -P c:\ ftp://user:[email protected] Проблема в том, что это создает папку в c:\ под названием…
3
Основываясь на этом документе , кажется, что функции фильтрации wget
очень ограничены.
При использовании параметра --recursive
wget
загрузит все связанные документы после применения различных фильтров, таких как --no-parent
и -I
, -X
, -A
, -R
.
В вашем примере:
wget -r -I /pub/special.requests/cew/2013/county/ ftp://ftp.bls.gov/pub/special.requests/cew/
Это ничего не загрузит, потому что параметр -I
указывает включать только ссылки , соответствующие /pub/special.requests/cew/2013/county/
, но на странице /pub/special.requests/cew/
таких ссылок нет, поэтому загрузка на этом заканчивается. Однако это сработает:
wget -r -I /pub/special.requests/cew/2013/county/ ftp://ftp.bls.gov/pub/special.requests/cew/2013/
… потому что в этом случае на странице /pub/special.requests/cew/2013/
есть ссылка на county/
Кстати, вы можете найти больше подробностей в этом документе, чем на странице man
:
http://www.gnu.org/программное обеспечение/wget/руководство/html_node/
Поделиться janos 24 декабря 2013 в 20:03
2
не можете ли вы просто сделать (и добавить —timestamping/—no-parent и т. Д. По мере необходимости)
wget -r ftp://ftp.bls.gov/pub/special.requests/cew/2013/county
Похоже, что-I работает на одном уровне каталога за раз, поэтому, если мы сделаем шаг вперед от county/, мы сможем сделать:
wget -r -I /pub/special.requests/cew/2013/county/ ftp://ftp.bls.gov/pub/special.requests/cew/2013/
Но, очевидно, мы не можем продвинуться дальше и сделать
wget -r -I /pub/special.requests/cew/2013/county/ ftp://ftp.bls.gov/pub/special.requests/cew/
Поделиться nos 23 декабря 2013 в 22:11
Похожие вопросы:
FTP время загрузки файла истекло с помощью wget
Я пытаюсь загрузить файл, расположенный на сервере FTP. Я могу загрузить файл вручную через браузер, но время загрузки истекает, когда я использую wget для того же самого. Может ли кто — нибудь…
Ansible для загрузки файлов с FTP
В настоящее время я использую скрипт shell для загрузки файлов с сервера FTP. Ansible выполнит мой сценарий и продолжит другие автоматизированные задания. Пожалуйста, дайте мне знать, как лучше…
загрузка файла с сервера ftp через wget завершается неудачно
Я загружаю файл с сервера FTP с помощью wget. Если я наберу ftp://username:[email protected]/some_path/file в мой браузер файл загружается нормально. Если я вместо этого сделаю, wget…
Howto создал обрезанное дерево каталогов при использовании wget для загрузки ftp
Я использую wget для загрузки файлов из ftp. Ftp папка имеет имя /var/www/html/ Внутри этой папки находится дерево папок & файлов, ~20 уровней. Я пытаюсь сделать загрузку ftp (не имею доступа…
Указание локального каталога с помощью WGET
У меня есть вопрос относительно wget, который я, кажется, не могу понять. Я использую следующую команду для загрузки всего содержимого моего сервера FTP (который работает нормально) wget -m -P c:\…
wget файл скачать ftp waitfor() зависает
Я пытаюсь загрузить файл XML с сервера FTP с помощью wget в моей программе Java. Я должен ждать, пока он не закончит загрузку. String command = WGET -O +props.getProperty(xmlFolder)++ +…
использование wget для получения выбранных подкаталогов
Я хочу настроить задание cron для загрузки данных с сервера (http). Каждый каталог имеет date/time-stamped в формате YYYYMMDDHH , где есть 2 версии ежедневно, поэтому HH-это либо 00, либо 12. Мне…
Скачать фиксированное количество каталогов с сервера ftp
У меня есть сервер FTP с тысячами каталогов. Что я хочу сделать, так это загрузить определенное количество из них (например, 500 каталогов) с помощью скрипта shell. Как я могу это сделать? Я…
wget для выбранных образцов из ftp?
Я хотел скачать выбранные файлы с этого сайта: ftp://ftp-trace.ncbi.nlm.nih.gov/sra/sra-instant/reads/ByStudy/sra/SRP/SRP042/SRP042286 Если бы я хотел скачать их все я мог бы это сделать: $wget -r…
Загрузка данных конкретных каталогов с помощью wget
Я загружаю данные с сервера ‘ftp’ , используя ‘wget’ из командной строки системы Ubuntu. Я знаю, как загрузить все каталоги из определенного URL. Есть ли у них какая-либо команда для выбора и…
Команда Wget в Linux с примерами
GNU Wget — это утилита командной строки для загрузки файлов из Интернета. С помощью Wget вы можете загружать файлы с использованием протоколов HTTP, HTTPS и FTP. Wget предоставляет ряд опций, позволяющих загружать несколько файлов, возобновлять загрузку, ограничивать пропускную способность, рекурсивные загрузки, выполнять фоновую загрузку, зеркалировать веб-сайт и многое другое.Установка Wget
Пакет wget уже предустановлен в большинстве дистрибутивов Linux.
Чтобы проверить, установлен ли пакет Wget в вашей системе, откройте консоль, введите wget
и нажмите клавишу ввода. Если у вас установлен wget, система напечатает wget: missing URL
, в противном случае он будет печатать wget command not found
.
Если wget не установлен, вы можете легко установить его с помощью менеджера пакетов вашего дистрибутива.
Установка Wget на Ubuntu и Debian
sudo apt install wget
Установка Wget на CentOS и Fedora
sudo yum install wget
Синтаксис команды Wget
Прежде чем перейти к использованию wget
команды, давайте начнем с обзора основного синтаксиса.
В wget
полезности выражение принимает следующий вид:
options
— варианты Wgeturl
— URL файла или каталога, который вы хотите скачать или синхронизировать.
Как скачать файл с помощью Wget
В простейшей форме, когда используется без какой-либо опции, wget загрузит ресурс, указанный в [url], в текущий каталог.
В следующем примере мы загружаем tar-архив ядра Linux:
wget https://cdn.kernel.org/pub/linux/kernel/v4.x/linux-4.17.2.tar.xz
Как видно из рисунка выше, Wget начинает с разрешения IP-адреса домена, затем подключается к удаленному серверу и начинает передачу.
Во время загрузки Wget показывает индикатор выполнения наряду с именем файла, размером файла, скоростью загрузки и предполагаемым временем завершения загрузки. После завершения загрузки вы можете найти загруженный файл в текущем рабочем каталоге .
Чтобы отключить вывод Wget, используйте -q
опцию.
Если файл уже существует, Wget добавит .N
(число) в конце имени файла.
Использование команды Wget для сохранения загруженного файла под другим именем
Чтобы сохранить загруженный файл под другим именем, передайте -O
опцию, а затем выбранное имя:
wget -O latest-hugo.zip https://github.com/gohugoio/hugo/archive/master.zip
Команда выше сохранит последнюю файл hugo zip из GitHub latest-hugo.zip
вместо его исходного имени.
Использование команды Wget для загрузки файла в определенный каталог
По умолчанию Wget сохраняет загруженный файл в текущем рабочем каталоге. Чтобы сохранить файл в определенном месте, используйте -P
параметр:
wget -P /mnt/iso http://mirrors.mit.edu/centos/7/isos/x86_64/CentOS-7-x86_64-Minimal-1804.iso
С помощью приведенной выше команды мы сообщаем Wget сохранить ISO-файл CentOS 7 в /mnt/iso
каталог.
Как ограничить скорость загрузки с помощью Wget
Чтобы ограничить скорость загрузки, используйте --limit-rate
опцию. По умолчанию скорость измеряется в байтах / секунду. Добавить k
за килобайт, m
за мегабайты и g
за гигабайты.
Следующая команда загрузит двоичный файл Go и ограничит скорость загрузки до 1 Мб:
wget --limit-rate=1m https://dl.google.com/go/go1.10.3.linux-amd64.tar.gz
Эта опция полезна, когда вы не хотите, чтобы wget использовал всю доступную пропускную способность.
Как возобновить загрузку с помощью Wget
Вы можете возобновить загрузку, используя -c
опцию. Это полезно, если ваше соединение разрывается во время загрузки большого файла, и вместо того, чтобы начать загрузку с нуля, вы можете продолжить предыдущую.
В следующем примере мы возобновляем загрузку iso-файла Ubuntu 18.04:
wget -c http://releases.ubuntu.com/18.04/ubuntu-18.04-live-server-amd64.iso
Если удаленный сервер не поддерживает возобновление загрузки, Wget начнет загрузку с начала и перезапишет существующий файл.
Как скачать в фоновом режиме с Wget
Для загрузки в фоновом режиме используйте -b
опцию. В следующем примере мы загружаем iso-файл OpenSuse в фоновом режиме:
wget -b https://download.opensuse.org/tumbleweed/iso/openSUSE-Tumbleweed-DVD-x86_64-Current.iso
По умолчанию выходные данные перенаправляются в wget-log
файл в текущем каталоге. Чтобы посмотреть статус загрузки, используйте tail
команду:
tail -f wget-log
Как изменить Wget User-Agent от Wget
Иногда при загрузке файла удаленный сервер может быть настроен на блокировку Wget User-Agent. В подобных ситуациях для эмуляции другого браузера передайте -U
опцию.
wget --user-agent="Mozilla/5.0 (X11; Linux x86_64; rv:60.0) Gecko/20100101 Firefox/60.0" http://wget-forbidden.com/
Приведенная выше команда будет эмулировать Firefox 60, запрашивающий страницу у wget-forbidden.com
Как скачать несколько файлов с помощью Wget
Если вы хотите загрузить несколько файлов одновременно, используйте -i
параметр, после которого укажите путь к локальному или внешнему файлу, содержащему список URL-адресов для загрузки. Каждый URL должен быть в отдельной строке.
В следующем примере мы загружаем iso файлы Arch Linux, Debian и Fedora с URL-адресами, указанными в linux-distros.txt
файле:
wget -i linux-distros.txt
linux-distros.txt
http://mirrors.edge.kernel.org/archlinux/iso/2018.06.01/archlinux-2018.06.01-x86_64.iso
https://cdimage.debian.org/debian-cd/current/amd64/iso-cd/debian-9.4.0-amd64-netinst.iso
https://download.fedoraproject.org/pub/fedora/linux/releases/28/Server/x86_64/iso/Fedora-Server-dvd-x86_64-28-1.1.iso
Если вы укажете -
имя файла, URL будут считаны из стандартного ввода.
Использование команды Wget для загрузки через FTP
Чтобы загрузить файл с FTP-сервера, защищенного паролем, укажите имя пользователя и пароль, как показано ниже:
wget --ftp-user=FTP_USERNAME --ftp-password=FTP_PASSWORD ftp://ftp.example.com/filename.tar.gz
Использование команды Wget для создания зеркала сайта
Чтобы создать зеркало сайта с помощью Wget, используйте -m
опцию. Это создаст полную локальную копию веб-сайта, перейдя и загрузив все внутренние ссылки, а также ресурсы веб-сайта (JavaScript, CSS, изображения).
wget -m https://example.com
Если вы хотите использовать загруженный веб-сайт для локального просмотра, вам нужно будет передать несколько дополнительных аргументов команде выше.
wget -m -k -p https://example.com
Эта -k
опция заставит Wget конвертировать ссылки в загруженных документах, чтобы сделать их пригодными для локального просмотра. -p
Опция покажет Wget , чтобы загрузить все необходимые файлы для отображения страницы HTML.
Как пропустить проверку сертификата с помощью Wget
Если вы хотите загрузить файл через HTTPS с хоста, имеющего недействительный сертификат SSL, используйте --no-check-certificate
параметр:
wget --no-check-certificate https://domain-with-invalid-ss.com
Как скачать в стандартный вывод с помощью Wget
В следующем примере Wget тихо (пометит -q
) загрузит и выведет последнюю версию WordPress в stdout (пометит -O -
) и tar
передаст ее утилите, которая извлечет архив в /var/www
каталог.
wget -q -O - "http://wordpress.org/latest.tar.gz" | tar -xzf - -C /var/www
Вывод
С помощью Wget вы можете загружать несколько файлов, возобновлять частичную загрузку, зеркалировать веб-сайты и комбинировать параметры Wget в соответствии с вашими потребностями.
wget — руководство GNU Wget
GNU Wget НАЗВАНИЕ
wget -- Руководство GNU Wget
СИНТАКСИС wget [параметры]... [URL]...
ОПИСАНИЕ GNU Wget это открыто распространяемая утилита для загрузки файлов из интернет. Она поддерживает протоколы HTTP, HTTPS, и FTP, загрузку с прокси-серверов по протоколу HTTP. Wget может следовать по ссылкам HTML страниц и создавать локальные копии удалённых web сайтов, возможно полное восстановление структуры каталогов сайта. Это называется "recursive downloading" (рекурсивная загрузка). При выполнении такого задания, Wget ищет файл с правами доступа для роботов (/robots.txt). Возможна также конвертация ссылок в загруженных HTML файлах для просмотра сайта в автономном режиме ("Off-line browsing"). Проверка заголовков файлов. Wget может прочитать заголовок файла, что доступно по протоколам HTTP и FTP и сравнить с заголовком файла, который был загружен ранее, и, если это так, загрузить новую версию файла. Благодаря этому, с Wget возможно зеркальное хранение сайтов и коллекций файлов по FTP. Wget разработан для медленных или нестабильных соединений: если во время загрузки возникнет проблема, Wget будет продолжать пытаться загрузить файл. Если сервер, с которого загружается файл, поддерживает докачку, Wget продолжит загружать файл с того места, где оборвалась загрузка.
OПЦИИ Основные параметры -V --version Отобразить версию Wget. -h --help Отобразить параметры командной строки Wget. -b --background Перейти в фоновый режим после запуска. Если файл для сообщений не указан параметром -o, он записывается в wget-log -e command --execute command Выполнить command как если бы она была частью .wgetrc. Команда будет выполнена после команд в .wgetrc. Параметры сообщений -o logfile --output-file=logfile Записывать все сообщения в logfile. Иначе они будут направлены в stderr. -a logfile --append-output=logfile Дополнить logfile. Как и -o, только logfile не заменяется, а дополняется. Если logfile не существует, создаётся новый файл. -d --debug Отображать сообщения отладки - разная информация, важная для разработчиков Wget. -q --quiet Выключить сообщения Wget. -v --verbose Включить подробные сообщения, со всеми доступными данными. По умолчанию включено. -nv --non-verbose Не подробные сообщения (чтобы выключить сообщения см. -q). Сообщения об ошибках и основная информация будут отображаться. -i file --input-file=file Прочитать URL из file. В этом случае указывать URL в командной строке не требуется. Если URL указаны и в командной строке и в file, сначала будут загружены URL из командной строки. file не обязательно должен иметь формат HTML (но ничего страшного, если это так) -- URL просто должны быть указаны в нём. Если вы укажите --force-html, файл будет прочтён как html. В этом случае могут возникнуть проблемы с относительными ссылками. Это можно предотвратить добавлением в него "<base href="url">" или вводом в командной строке --base=url. -F --force-html При чтении URL из файла, включает чтение файла как HTML. Чтобы предотвратить ошибкам, если файл HTML является локальным, добавьте "<base href="url">" в файл или введите параметр командной строки --base. -B URL --base=URL При чтении URL из файла (-F), определяет URL, добавляемый к относительным адресам файла, указанного параметром -i. Параметры загрузки --bind-address=ADDRESS При соединениях по протоколам TCP/IP, передаёт "bind()" в ADDRESS на локальной машине. В ADDRESS может быть указано как имя хоста, так и IP адрес. Используется, когда ваш компьютер имеет несколько IP адресов. -t number --tries=number Устанавливает число повторов number. Укажите 0 или inf для бесконечного числа повторов. -O file --output-document=file Документы не будут записываться в соответствующие файлы, а будут соединены вместе и записаны в file. Если file существует, он будет заменён. Если file указан как -, документы будут выводиться в стандартный вывод (stdout). Этот параметр автоматически устанавливает число повторов в 1. Полезен при закачке файлов, разделённых на части, с почтовых серверов через web-интерфейс -nc --no-clobber Если при загрузке сайта связь оборвалась, для продолжения с того же места, укажите этот параметр. При запуске Wget без -N, -nc, или -r, повторная загрузка одного и того же файла в один каталог приведёт к созданию копии файла с именем file.1. Если существует файл и с таким именем, третья копия будет называться file.2 и т. д. При параметре -nc это будет предупреждено. При запуске Wget с параметром -r, но без -N или -nc, новая загрузка сайта приведёт к замене уже загруженных файлов. При параметре -nc загрузка продолжится с места обрыва и загруженные файлы не будут загружаться заново (если только они не изменились). При запуске Wget с параметром -N, с или без -r, файл будет загружен если он новее, или если размер его не совпадает с загруженной копией (см. Сравнение по дате). -nc не комбинируется с -N.. При указанном параметре -nc, файлы с расширениями .html или (что очень ужасно) .htm с локальных дисков будут загружаться как из интернет. -c --continue Возобновление загрузки файла. Используется если загрузка файла была прервана. Например:
Если в текущем каталоге есть файл с именем ls-lR.Z, Wget проверит, соответствует ли данный файл загружаемому (не по размеру!), и, если это так, отправит запрос на сервер на продолжение загрузки файла с того же места, где оборвалась загрузка в прошлый раз. Помните, что при обрыве связи Wget повторяет попытки самостоятельно и без -c, и только когда он "сдастся" и закончит работу, для возобновления будет нужен этот параметр. Без опции -c, предыдущий пример приведёт к загрузке указанного файла заново с конечным именем ls-lR.Z.1, не трогая ls-lR.Z Начиная с версии 1.7 при параметре -c, если файл на сервере имеет равный, или меньший, чем у локального файла размер, Wget не будет ничего загружать и отобразит соответствующее сообщение. Однако при использовании -c, любой файл на сервере, имеющий больший размер, чем локальный, будет рассматриваться, как недокачанный. При этом будет загружено и записано в конец файла только "(длина(удал.файл) - длина(локал.файл))" байт. Это может пригодиться, когда вам нужно загрузить новые сообщения какого-либо журнала (log). При этом, если удалённый файл больше потому, что он изменился, вы получите повреждённый файл (т.е. файл докачается другим). Вам нужно быть особенно внимательными при использовании -c вместе с -r, так как каждый изменённый файл может быть кандидатом на "незавершённую загрузку". Вы также получите повреждённый файл, если ваш HTTP прокси-сервер неправильно настроен и при обрыве соединения пишет "transfer interrupted" в файл. В следующих версиях Wget сам будет исправлять это. Помните, что -c работает только с FTP и HTTP серверами, которые поддерживают заголовок "Range" (т.е. докачку). --progress=type Тип индикатора прогресса. Возможные значения: "dot" и "bar". "bar" используется по умолчанию. Указание --progress=bar приведёт к прорисовке красивого индикатора из символов ASCII (aka "термометр").1;5~ Если стандартный выход не TTY, будет использован "t".Sp Укажите --progress=dot чтобы переключится на тип "dot". прогресс будет отмечаться добавлением в полосе точки или знака равно, каждый символ представляет одинаковое количество данных. При использовании этого типа, вы можете указать его стиль - dot:style. Если стиль "default", каждый символ будет представлять 1 Kб, 10 символов в кластере и 50 в строке. Стиль "binary" имеет более "компьютерный" вид - 8 Kб символов, 16 символов в кластере и 48 символов в строке (получается строка на 384 Kб). Стиль "mega" используется для загрузки больших файлов - каждый символ представляет 64 Kб, 8 символов в кластере и 48 символов в строке (получается 3 Mб на строку). Вы можете определить стиль по умолчанию используя команду "progress" в .wgetrc. Если вы хотите, чтобы тип индикатора "bar" использовался всегда (а не только при выводе в stdout), укажите --progress=bar:force. -N --timestamping Включить сравнение по дате. -S --server-response Отображать заголовки, посылаемые HTTP серверам и запросы, посылаемые FTP серверам. --spider Установка поведения Wget как паука, т. е. Wget не будет загружать файлы, а только будет проверять их наличие. Так можно проверять закладки, ссылки сайта. Например:
- wget —spider —force-html -i bookmarks.html
Wget не содержит все возможности настоящих WWW пауков. -T seconds --timeout=seconds Время ожидания в секундах. Время ожидания по умолчанию 900 секунд (15 минут). Установка 0 отменяет проверку времени ожидания. Пожалуйста, не снижайте значение времени ожидания если Вы не знаете, что делаете. -w seconds --wait=seconds Пауза в секундах между несколькими загрузками (в т.ч. повторами). Это снижает загруженность сервера. Чтобы указать значение в минутах, используйте "m", в часах - "h", в днях - "d" после числа. Указание большого значения этого параметра полезно если сеть нестабильна (например обрыв dial up связи).--waitretry=seconds
Устанавливает паузу только между повторами загрузок, которые оборвались. Wget будет ждать 1 секунду
после первого обрыва, 2 секунды после второго обрыва загрузки того же фала, и т. д. до максимума,
который указывается в секундах. Например, при значении данного параметра 10, Wget будет ждать в общем
(1 + 2 + ... + 10) = 55 секунд для каждого файла.Это значение указывается по умолчанию в файле wgetrc.
--random-wait
Некоторые серверы, совершая формирование лог-файлов с паузами запросов файлов, могут определить
рекурсивную загрузку файлов - сканирование роботами, такими, как Wget. Этот параметр устанавливает
время между запросами варьируя с временем паузы, рассчитываемым от 0 до 2 * wait (секунд), где wait
указано параметром -w для маскировки Wget.Нельзя забывать что доступны исходники Wget и даже эту маскировку можно вычислить.
-Y on/off
--proxy=on/off
Поддержка прокси-сервера. Включена по умолчанию если прокси-сервер определён.-Q quota
--quota=quota
Квота на размер загружаемых файлов. Указывается в байтах (по умолчанию), Кб (в конце k) или в Мб (в конце m).При окончании квоты, текущий файл загружается до конца, значит она не работает при загрузке одного файла. Например, если вы укажите wget -Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, файл ls-lR.gz будет полностью загружен. Также все указанные в командной строке будут обязательно загружены, в отличие от файлов, указанный в файле, или при рекурсивной загрузке.
Указание 0 или inf отменит квоту.
Параметры загрузки каталогов
-nd
--no-directories
Не создавать структуру каталогов при рекурсивной загрузке. При указанном параметре, все файлы будут загружаться в один каталог. Если файл с данным именем уже существует, он будет сохранён под именем ИмяФайла.n.-x
--force-directories
Противоположное параметру -nd - создавать структуру каталогов начиная с главной страницы сервера. Например загрузка файла wget -x http://fly.srk.fer.hr/robots.txt приведёт к созданию
каталога fly.srk.fer.hr.-nH
--no-host-directories
Не создавать каталоги c именем хоста в названии. По умолчанию wget -r http://fly.srk.fer.hr/ приведёт к созданию структуры каталогов начиная с fly.srk.fer.hr/. Это поведение выключается указанием данного параметра. --cut-dirs=number Игнорировать number каталогов высшего уровня. Используется при загрузке каталогов и файлов низкого уровня. Возьмём, например, каталог ftp://ftp.xemacs.org/pub/xemacs/. Если вы загрузите его с параметром -r, он сохранится под именем ftp.xemacs.org/pub/xemacs/. При параметре -nH из имени начального каталога будет вырезано ftp.xemacs.org/, и он будет называться pub/xemacs. А параметр --cut-dirs уберёт number компонентов. Примеры работы параметра --cut-dirs.
Если вы хотите просто избавиться от структуры каталогов, вы можете заменить этот параметр на -nd и -P. В отличие от -nd, --cut-dirs работает с подкаталогами - например при -nH --cut-dirs=1, подкаталог beta/ запишется в xemacs/beta. -P prefix --directory-prefix=prefix Определяет начальный каталог, в который будет сохранена структура каталогов сайта (или просто файлы). По умолчанию этот параметр равен . (текущий каталог). Параметры HTTP -E --html-extension Если тип загруженного файла text/html и его адрес не оканчивается на \.[Hh][Tt][Mm][Ll]?, при данном параметре к его имени будет добавлено .html. Это может быть полезно при зеркальном хранении страниц .asp, но вы не хотите, чтобы они вмешивались в ваш сервер Apache. Другой случай применения этого параметра - загрузка страниц-ответов CGI скриптов. Страница с URL вида http://site.com/article.cgi?25 будет сохранена как article.cgi?25.html. Примечание. При обновлении или другой перезагрузке страниц с данным параметром, последние будут загружаться заново в любом случае, т. к. Wget не может узнать, имеет ли отношение локальный файл X.html к загружаемому с URL X. Чтобы избежать лишней перезагрузки, используйте опции -k и -K. При этом оригинальные версии файлов будут также сохранены как X.orig. --http-user=user --http-passwd=password Имя пользователя user и пароль password для HTTP сервера. В зависимости от типа отклика, Wget будет использовать "basic" (небезопасную) или "digest" авторизацию. Можно также указывать имя пользователя и пароль и в самом URL. -C on/off --cache=on/off Включает или выключает кеширование со стороны сервера. При этом Wget посылает соответствующих запрос (Pragma: no-cache). Также используется для быстрого обновления файлов на прокси-сервере. По умолчанию кеширование разрешено. --cookies=on/off Включает или выключает использование cookie. Сервер посылает клиенту cookie используя заголовок "Set-Cookie" и клиент отвечает тем же cookie. Благодаря этому сервер может вести статистику посетителей. По умолчанию cookie используются, но запись их на диск выключена. --load-cookies file Загружать cookie из file перед первой загрузкой HTTP. file имеет текстовый формат, как cookies.txt у Netscape. Этот параметр используется при зеркальном хранении. Для этого Wget посылает те же cookies, которые посылает ваш обозреватель при соединении с HTTP сервером. Это включается данным параметром - просто укажите Wget путь к cookies.txt. Разные обозреватели хранят cookie в разных каталогах: Netscape 4.x. Файл находится в ~/.netscape/cookies.txt. Mozilla и Netscape 6.x. Mozilla хранит cookies в cookies.txt, расположенном где-то в ~/.mozilla, в каталоге вашего профайла. Полный путь обычно заканчивается чем-то вроде ~/.mozilla/default/some-weird- string/cookies.txt. Internet Explorer. Чтобы экспортировать cookie для Wget, выберите Файл | Импорт и экспорт, в мастере выберите Экспорт файлов cookie. Тестировано в Internet Explorer 5; возможно не будет работать в ранних версиях. Другие обозреватели. Параметр --load-cookies будет работать с cookie в формате Netscape, который поддерживается Wget. Если вы не можете использовать параметр --load-cookies, есть выход. Если ваш обозреватель поддерживает
- wget —cookies=off —header «Cookie: I<name>=I<value>»
--save-cookies file Сохранить cookie из file в конце сессии. Устаревшие cookie не сохраняются. --ignore-length Некоторые HTTP серверы (точнее CGI скрипты) посылают заголовки "Content-Length", которые указывают Wget, что загружено ещё не всё. И Wget загружает один документ несколько раз. С этим параметром, Wget будет игнорировать заголовки "Content-Length". --header=additional-header Определяет additional-header, отправляемый HTTP серверу. Он должен содержать : и символы после него. Вы можете определить несколько дополнительных заголовков использованием --header несколько раз.
Указание пустой строки в значении заголовка очистит все определённые пользователем до этого заголовки. --proxy-user=user --proxy-passwd=password Определяет имя пользователя user и пароль для авторизации на прокси-сервере. Будет использован тип авторизации "basic". --referer=url Добавляет заголовок `Referer: url' в запрос HTTP. Используется при загрузке страниц, которые передаются правильно только, если сервер знает, с какой страницы вы пришли. -s --save-headers Сохранять заголовки, посылаемые HTTP серверам. -U agent-string --user-agent=agent-string Идентифицироваться как agent-string при запросе на HTTP сервер. Протокол HTTP позволяет определять себя использованием заголовка агента. Wget по умолчанию идентифицируется как Wget/version, где version - это версия Wget. Некоторые серверы выдают требуемую информацию только для обозревателей, идентифицирующихся как "Mozilla" или Microsoft "Internet Explorer". Этот параметр позволяет обмануть такие серверы. Параметры FTP -nr --dont-remove-listing Не удалять временные файлы .listing, генерируемые при загрузке по FTP. Эти файлы содержат информацию о каталогах FTP серверов. Не удаление поможет вам быстро определить обновление каталогов сервера (т. е. определять., что ваше зеркало является таковым). Не удаляя .listing, помните о своей безопасности. Например, с таким именем можно создать символическую ссылку на /etc/passwd или что-то ещё. -g on/off --glob=on/off Включает или выключает разрешение использовать специальные символы (маски) по FTP протоколу. Это может быть *, ?, [ и ]. Например:
По умолчанию использование маскировочных символов разрешено, если URL содержит такие символы. Вы можете также взять URL в кавычки. Это работает только на серверах Unix FTP (и эмулирующих выход Unix "ls"). --passive-ftp Включает пассивный режим FTP, когда соединение инициируется клиентом. Используется при наличии fire‐ wall. --retr-symlinks При рекурсивной загрузке каталогов FTP, файлы, на которые указывают символические ссылки, не загружаются. Этот параметр отключает это. Параметр --retr-symlinks работает сейчас только для файлов, не для каталогов. Помните, что этот параметр не работает при загрузке одиночного файла. Параметры рекурсивной загрузки -r --recursive Включить рекурсивную загрузку. -l depth --level=depth Максимальная глубина рекурсивной загрузки depth. По умолчанию значение 5. --delete-after Удалять каждую страницу (локально) после её загрузки. Используется для сохранения новых версий часто запрашиваемых страниц на прокси. Например:
Параметр -r включает загрузку по умолчанию, параметр -nd отключает создание каталогов. При указанном параметре --delete-after, --convert-links игнорируется. -k --convert-links После завершения загрузки конвертировать ссылки в документе для просмотра в автономном режиме. Это касается не только видимых ссылок на другие документы, а ссылок на все внешние локальные файлы. Каждая ссылка изменяется одним из двух способов:
- Ссылки на файлы, загруженные Wget изменяются на соответствующие относительные ссылки.
Например: если загруженный файл /foo/doc.html, ссылка на файл /bar/img.gif, также загруженный, в
нём будет выглядеть как ../bar/img.gif. Этот способ работает, если есть видимое соотношение между
каталогами одного и другого файла. - Ссылки на файлы, не загруженные Wget будут изменены на абсолютные адреса этих файлов на удалённом
сервере.Например: если загруженный файл /foo/doc.html содержит ссылку на /bar/img.gif (или на
../bar/img.gif), ссылка в файле doc.html изменится на http://host/bar/img.gif.
Благодаря этому, возможен автономный просмотр сайта, файлов: если файл, на который есть ссылка загружен, ссылка будет указывать на него, если нет - ссылка будет указывать на его адрес в интернет (если такой существует). При конвертировании ссылок, используются относительные ссылки, значит вы можете переносить загруженный сайт в другой каталог, не меняя его структуру. Только после завершения загрузки Wget знает, какие файлы были загружены. Следовательно, при параметре -k конвертация произойдет только по завершении загрузки. -K --backup-converted Конвертировать ссылки обратно - убирать расширение .orig. Изменяет поведение опции -N. -m --mirror Включить параметры для зеркального хранения сайтов. Этот параметр равен нескольким параметрам: -r -N -l inf -nr. Для неприхотливого хранения зеркальных копий сайтов вы можете использовать данный параметр. -p --page-requisites Загружать все файлы, которые нужны для отображения HTML страниц. Например рисунки, звук, каскадные стили. По умолчанию такие файлы не загружаются. Параметры -r и -l, указанные вместе могут помочь, но т. к. Wget не различает внешние и внутренние документы, нет гарантии, что загрузится всё требуемое. Например, 1.html содержит тег "<IMG>", со ссылкой на 1.gif, и тег "<A>", ссылающийся на внешний документ 2.html. Страница 2.html аналогична, но её рисунок - 2.gif и ссылается она на 3.html. Скажем, это продолжается до определённого числа. Если будет дана команда:
то 1.html, 1.gif, 2.html, 2.gif и 3.html загрузятся. Как видим, 3.html без 3.gif, т. к. Wget просто считает число прыжков, по которым он перешёл, доходит до 2 и останавливается. А при параметрах:
Все файлы and рисунок 3.gif страницы 3.html загрузятся. Аналогично
приведёт к загрузке 1.html, 1.gif, 2.html и 2.gif. Чтобы загрузить одну указанную HTML страницу со всеми её элементами, просто не указывайте -r и -l:
При этом Wget будет себя вести как при параметре -r, но будут загружены страница и её вспомогательные файлы. Если вы хотите, чтобы вспомогательные файлы на других серверах (т.е. через абсолютные ссылки) были загружены, используйте:
- wget -E -H -k -K -p http://I<site>/I<document>
И в завершении, нужно сказать, что для Wget внешняя ссылка - это URL, указанный в тегах "<A>", "<AREA>" и "<LINK>", кроме "<LINK REL="stylesheet">". Параметры запрета/разрешения рекурсивной загрузки -A acclist --accept acclist -R rejlist --reject rejlist Список имён файлов, разделённых запятыми, которые следует или не следует загружать. Разрешается задание имён файлов по маске. -D domain-list --domains=domain-list Список доменов domain-list, с которых разрешено загружать файлы. Разделяется запятыми. Этот параметр не включает -H. --exclude-domains domain-list Список доменов, с которых не разрешено загружать файлы --follow-ftp Следовать по ссылкам FTP с HTML страниц. Иначе, ссылки на файлы по протоколу FTP игнорируются. --follow-tags=list Wget имеет встроенную таблицу HTML тегов, в которых ищет ссылки на другие файлы. Вы можете указать дополнительные теги в разделённом запятыми списке list в этом параметре. -G list --ignore-tags=list Обратный --follow-tags. Для пропуска HTML тегов при рекурсивной загрузке, укажите их в разделённом запятыми списке list. Раньше параметр -G был лучшим для загрузки отдельных страниц с их вспомогательными файлами. Вы можете посмотреть, как это было, указав команду
- wget -Ga,area -H -k -K -r http://I<site>/I<document>
Но теперь, лучшим параметром для загрузки одной страницы полностью считается --page-requisites. -H --span-hosts Разрешает посещать любые сервера, на которые есть ссылка. -L --relative Следовать только по относительным ссылкам. При этом параметре файлы с других серверов загружаться точно не будут. -I list --include-directories=list Список, разделённый запятыми, каталогов, из которых разрешено загружать файлы. Элементы списка list могут содержать маскировочные символы. -X list --exclude-directories=list Список, разделённый запятыми, исключаемых каталогов для загрузки (см. Ограничение по каталогам) Элементы списка list могут содержать маскировочные символы. -np --no-parent Не подниматься выше начального адреса при рекурсивной загрузке.
ПРИМЕРЫ Примеры разделены на три категории согласно их сложности. Простоe использование
- Если вам нужно загрузить URL, введите:
- Но что же будет, если соединение медленное, а файл длинный? Есть возможность обрыва связи перед
завершением загрузки. В этом случае Wget будет продолжать попытки нового соединения пока не кончится
число попыток (по умолчанию 20). Можно изменить это число, например до 45: - Теперь оставим Wget работать на фоне, а его сообщения писать в журнал log. Долго набирать —tries,
так что используем -t.Символ амперсанда в конце указывает командному интерпретатору продолжать работу с пользователем, не
дожидаясь завершения работы Wget. Чтобы программа делала повторы бесконечно используйте -t inf. - Использование FTP также простое. Wget берёт на себя заботы по авторизации.
- · Если вы укажите адрес каталога, Wget загрузит список содержимого этого каталога и конвертирует его в
формат HTML. Например:
Расширенное использование
- Если у Вас есть файл с URL, которые вы хотите загрузить, используйте параметр -i:
Если вы укажите — вместо имени файла, URL будут читаться из стандартного ввода (stdin).
- · Создать пятиуровневую копию сайта GNU со
- Как и выше, но конвертируя ссылки в HTML файлах в локальные для автономного просмотра:
- Загрузить одну HTML страницу и все файлы, требуемые для отображения последней (напр. рисунки, файлы
каскадных стилей и т. д.). Также конвертировать все ссылки на эти файлы:.SpHTML страница будет сохранена в http://www.server.com/dir/page.html и рисунки, каскадные стили и прочее
будет сохранено в каталоге http://www.server.com/, кроме случая, когда файлы будут загружаться с других
серверов. - Как и выше, но без каталога http://www.server.com/. Также все файлы будут сохранены в подкаталогах download/.
- Загрузить index.html с http://www.lycos.com, отображая заголовки сервера:
- Сохранить заголовки в файл для дальнейшего использования.
- Загрузить два высших уровня wuarchive.wustl.edu в /tmp.
- Загрузить из каталога GIF-файлы на HTTP сервере. Команда wget http://www.server.com/dir/*.gif не
будет работать, так как маскировочные символы не поддерживаются при загрузке по протоколу HTTP.
Используйте:-r -l1 включает рекурсивную загрузку с максимальной глубиной в 1. —no-parent выключает следование по ссылкам в родительский каталог, имеющую верхний уровень, -A.gif разрешает загружать только файлы с расширением .GIF. -A «*.gif» также будет работать.
- Предположим во время рекурсивной загрузки у вам нужно было срочно выключить/перезагрузить компьютер.
Чтобы не загружать уже имеющиеся файлы, используйте: - Если вы хотите указать имя пользователя и пароль для HTTP или FTP сервера, используйте
соответствующий синтаксис URL: - Вы хотите, чтобы загружаемые документы шли в стандартный вывод, а не в файлы?
Если вы хотите устроить конвейер и загрузить все сайты, ссылки на которые указаны на одной странице:
Профессиональное использование
Вы также хотите, чтобы ссылки конвертировались в локальные. Но после прочтения этого руководства, вы знаете, что при этом не будет работать сравнение по времени. Укажите Wget оставлять резервные копии HTML файлов перед конвертацией. Команда:
А если не работает локальный просмотр HTML файлов с расширением, отличным от .html, например index.cgi, нужно передать команду на переименование всех таких файлов (content-type = text/html) в имя.html.
- wget —mirror —convert-links —backup-converted \
—html-extension -o /home/me/weeklog \
http://www.gnu.org/
С краткими аналогами команд:
ФАЙЛЫ /usr/local/etc/wgetrc Расположение по умолчанию глобального файла настроек. .wgetrc Пользовательский файл настроек.
ОШИБКИ Вы можете отправлять отчёты об ошибках в GNU Wget на <"bug-wget(at)gnu.org"> (на английском). Перед отправкой: 1. Убедитесь, что поведение программы действительно ошибка. Если Wget "вылетает", это точно ошибка. Если поведение Wget не соответствует документации, это ошибка. Если все работает странно, но вы не уверены, как оно должно работать на самом деле, это может быть ошибка. 2. Попытайтесь повторить ошибку в минимальное количество действий. Не спешите отправлять .wgetrc, попробуйте проделать действия, приведшие к ошибке с другим (или вообще без него) файлом настроек. 3. Запустите Wget с параметром -d и отправьте журнал (или его части). Намного намного легче отыскивать ошибки с такими журналами. 4. Если Wget "вылетел", попытайтесь запустить его в отладчике, например "gdb `which wget` core" и введите "where" для получения обратной трассировки.
СМ. ТАКЖЕ GNU Info для wget.
АВТОРЫ Hrvoje Niksic <hniksic(at)arsdigita.com>. ПЕРЕВОД Н. Шафоростов <admin(at)program.net.ua>
АВТОРСКИЕ ПРАВА Copyright (c) 1996, 1997, 1998, 2000, 2001 Free Software Foundation, Inc.
Примеры команды wget — загрузка файлов с помощью команды wget
Команда wget используется в основном для получения файлов с внешних ресурсов через HTTP или FTP, в этой статье мы приведем несколько примеров того, как ее использовать.
Загрузка файла с помощью wget
Следующая команда загрузит файл через HTTP-запрос
wget domain.com/file.txt
Это сохранит его под тем же именем, что и на сервере, вы можете сохранить его под желаемым именем.Обратите внимание, что файлы должны сохранять свои расширения
wget -O myFile.txt domain.com/file.txt
Может использоваться для загрузки внешних файлов, необходимых для проекта
Загрузка файла JavaScript:
wget https://code.jquery.com/jquery-3.3.1.min.js
Загрузка одного файла по FTP
wget может использоваться для загрузки файлов через FTP, а также через HTTP, вам необходимо знать свои учетные данные и имя хоста или IP-адрес FTP-сервера.
wget --ftp-user = FTP_USERNAME --ftp-password = 'FTP_PASSWORD' ftp: // URL / PATH_TO_FILE / FILE_NAME
Скачивание всех файлов в каталоге
Синтаксис такой же, как и для одного файла, однако в конце каталога стоит символ * вместо указанного файла.
wget --ftp-user = FTP_USERNAME --ftp-password = 'FTP_PASSWORD' ftp: // URL / PATH_TO_FTP_DIRECTORY / *
Скачать файл в фоновом режиме
Можно скачать файл в фоновом режиме
wget -bq домен.com / file.txt
Загрузить полный HTML-файл веб-сайта
Вы можете реплицировать HTML-содержимое веб-сайта с помощью параметра –mirror (или для краткости -m)
wget -m http://domain.com
Загрузка нескольких файлов
Вы можете загрузить несколько файлов, URL-адреса которых хранятся в файле, каждый в отдельной строке
cat urls.txt url1.com/file url2.com/file url3.com/file
wget -i urls.txt
Поэкспериментируйте с различными командами wget или используйте вышеупомянутые примеры wget в наших дешевых хостинговых пакетах cPanel, планах Linux SSD VPS или выделенных серверах Linux.
Скачивание файлов с помощью wget | База знаний пары
Общий
VPS
Выделенный
WP Professional
WP Professional Plus
Команда wget — это программа для загрузки файлов из Интернета, которая может загружать все, что угодно, от файлов и веб-страниц до целых веб-сайтов.
Базовое использование
Формат команды wget:
wget [параметры] url
Например, в простейшей форме вы должны написать команду примерно так:
wget http: // www.domain.com/filename.zip
Это загрузит файл filename.zip с www.domain.com и поместит его в текущий каталог.
Перенаправление вывода
Параметр -O
устанавливает имя выходного файла. Если файл назывался filename-4.0.1.zip и вы хотите сохранить его непосредственно в filename.zip , вы должны использовать такую команду:
wget -O filename.zip http://www.domain.com/filename-4.0.1.zip
Программа wget может работать с множеством различных протоколов, наиболее распространенными из которых являются ftp: // и http: //.
Загрузка в фоновом режиме.
Если вы хотите скачать большой файл и закрыть соединение с сервером, вы можете использовать команду:
wget -b url
Загрузка нескольких файлов
Если вы хотите загрузить несколько файлов, вы можете создать текстовый файл со списком целевых файлов. Каждое имя файла должно быть в отдельной строке. Затем вы запустите команду:
wget -i filename.txt
Вы также можете сделать это с помощью файла HTML.Если у вас есть HTML-файл на вашем сервере и вы хотите загрузить все ссылки на этой странице, вам нужно добавить --force-html
в свою команду.
Чтобы использовать это, все ссылки в файле должны быть полными ссылками, если это относительные ссылки, вам нужно будет добавить
после к HTML-файлу перед запуском команды:
wget --force-html -i filename.html
Ограничение скорости загрузки
Обычно вы хотите, чтобы загрузка была как можно быстрее.Однако, если вы хотите продолжить работу во время загрузки, вам нужно уменьшить скорость.
Для этого используйте параметр --limit-rate
. Вы бы использовали это так:
wget --limit-rate = 200k http://www.domain.com/filename.tar.gz
Продолжается неудачная загрузка
Если при загрузке большого файла происходит сбой, в большинстве случаев вы можете продолжить загрузку, используя параметр -c
.
Например:
wget -c http: // www.domain.com/filename.tar.gz
Обычно при перезапуске загрузки с тем же именем файла к загружаемому файлу добавляется номер, начинающийся с .1, и начинается снова с начала.
Загрузка в фоновом режиме
Если вы хотите загрузить в фоновом режиме, используйте опцию -b
. Пример этого:
wget -b http://domain.com/filename.tar.gz
Проверка наличия удаленных файлов перед загрузкой по расписанию
Если вы хотите запланировать большую загрузку заранее, стоит проверить, существуют ли удаленные файлы.Вариант запуска проверки файлов — --spider
.
В таких случаях у вас обычно есть файл со списком файлов для загрузки внутри. Пример того, как эта команда будет выглядеть при проверке списка файлов:
wget --spider -i filename.txt
Однако, если вы хотите проверить только один файл, вы можете использовать эту формулу:
wget --spider http://www.domain.com/filename.tar.gz
Копирование всего веб-сайта
Если вы хотите скопировать весь веб-сайт, вам необходимо использовать параметр --mirror
.Поскольку это может быть сложной задачей, вам могут потребоваться другие параметры, такие как -p
, -P
, --convert-links
, --reject
и --user-agent
.
-п | Этот параметр необходим, если вы хотите, чтобы все дополнительные файлы, необходимые для просмотра страницы, такие как файлы CSS и изображения |
-P | Этот параметр устанавливает каталог загрузки.Пример: -P загружено |
— переходники | Эта опция исправит все ссылки в загруженных файлах. Например, он изменит любые ссылки, которые относятся к другим файлам, которые были загружены, на локальные. |
— отклонить | Этот параметр запрещает загрузку определенных типов файлов. Если, например, вам нужны все файлы, кроме файлов флэш-видео (flv), вы должны использовать --reject = flv |
—пользователь-агент | Этот параметр используется, когда на сайте установлена защита для предотвращения соскабливания.Вы могли бы использовать это, чтобы настроить свой пользовательский агент так, чтобы он выглядел так, как будто вы используете обычный веб-браузер, а не wget. |
Использование всех этих параметров для загрузки веб-сайта будет выглядеть так:
wget --mirror -p --convert-links -P ./local-dir --user-agent = "Mozilla / 5.0 (Windows NT 6.3; WOW64; rv: 40.0" http://www.domain.com/
СОВЕТ: Будьте милым
Всегда лучше спрашивать разрешения перед загрузкой сайта, принадлежащего кому-то другому, и даже если у вас есть разрешение, всегда хорошо поиграть с его сервером.Эти два дополнительных параметра гарантируют, что вы не нанесете вред их серверу во время загрузки.
--wait = 15 --limit-rate = 50K
Это будет ждать 15 секунд между каждой страницей и ограничить скорость загрузки до 50 КБ / сек.
Загрузка по FTP
Если вы хотите загрузить файл через FTP и требуются имя пользователя и пароль, вам нужно будет использовать параметры --ftp-user
и --ftp-password
.
Пример этого может выглядеть так:
wget --ftp-user = ИМЯ ПОЛЬЗОВАТЕЛЯ --ftp-password = ПАРОЛЬ ftp: // ftp.domain.com/filename.tar.gz
Повторить
Если во время загрузки возникают сбои, вы можете использовать опцию -t
, чтобы установить количество повторных попыток. Такая команда может выглядеть так:
wget -t 50 http://www.domain.com/filename.tar.gz
Вы также можете установить бесконечное количество попыток, используя -t inf
.
Рекурсивно до уровня X
Если вы хотите получить только первый уровень веб-сайта, вы должны использовать опцию -r
в сочетании с опцией -l
.
Например, если вам нужен только первый уровень веб-сайта, вы должны использовать:
wget -r -l1 http://www.example.com/
Установка логина и пароля для аутентификации
Если вам нужно аутентифицировать HTTP-запрос, используйте команду:
wget --http-user = ИМЯ ПОЛЬЗОВАТЕЛЯ --http-password = ПАРОЛЬ http://domain.com/filename.html
wget — очень сложная и полная утилита для скачивания. В нем есть еще много опций и множество комбинаций для решения конкретной задачи.Для получения дополнительной информации вы можете использовать команду man wget
в терминале / командной строке, чтобы открыть руководство по wget. Вы также можете найти руководство по wget здесь в формате веб-страницы.
Wget в Linux с примерами
GNU Wget — это утилита командной строки для загрузки файлов из Интернета. С Wget вы можете загружать файлы, используя протоколы HTTP, HTTPS и FTP. Wget предоставляет ряд опций, позволяющих загружать несколько файлов, возобновлять загрузки, ограничивать полосу пропускания, рекурсивные загрузки, загружать в фоновом режиме, зеркалировать веб-сайт и многое другое.
В этой статье показано, как использовать команду wget
на практических примерах и подробных объяснениях наиболее распространенных параметров.
Установка Wget #
Пакет wget предустановлен сегодня в большинстве дистрибутивов Linux.
Чтобы проверить, установлен ли пакет Wget в вашей системе, откройте консоль, введите wget
и нажмите Enter. Если у вас установлен wget, система напечатает wget: missing URL
.В противном случае он напечатает Команда wget не найдена
.
Если wget
не установлен, вы можете легко установить его с помощью диспетчера пакетов вашего дистрибутива.
Установка Wget на Ubuntu и Debian #
sudo apt install wget
Установка Wget на CentOS и Fedora #
sudo yum install wget
Синтаксис команды Wget #
Перед тем, как перейти к использованию wget
, давайте начнем с обзора основного синтаксиса.
Выражения утилиты wget
имеют следующий вид:
-
options
— Параметры Wget -
url
— URL-адрес файла или каталога, который вы хотите загрузить или синхронизировать.
Как загрузить файл с помощью
wget
# В простейшей форме, при использовании без какой-либо опции, wget
загрузит ресурс, указанный в [url], в текущий каталог.
В следующем примере мы загружаем tar-архив ядра Linux:
wget https: // cdn.kernel.org/pub/linux/kernel/v4.x/linux-4.17.2.tar.xz
Как видно из изображения выше, wget
начинается с разрешения IP-адреса домена, а затем подключается к удаленный сервер и начинает передачу.
Во время загрузки wget
показывает индикатор выполнения вместе с именем файла, размером файла, скоростью загрузки и расчетным временем завершения загрузки. После завершения загрузки вы можете найти загруженный файл в своем текущем рабочем каталоге.
.
Чтобы отключить вывод, используйте опцию -q
.
Если файл уже существует, wget
добавит .N
(номер) в конце имени файла.
Сохранение загруженного файла под другим именем #
Чтобы сохранить загруженный файл под другим именем, передайте параметр -O
, за которым следует выбранное имя:
wget -O latest-hugo.zip https: // github.com/gohugoio/hugo/archive/master.zip
Приведенная выше команда сохранит последнюю версию hugo
zip-файл с GitHub как latest-hugo.zip
вместо первоначального имени.
Загрузка файла в определенный каталог #
По умолчанию wget
сохранит загруженный файл в текущем рабочем каталоге. Чтобы сохранить файл в определенном месте, используйте параметр -P
:
wget -P / mnt / iso http://mirrors.mit.edu/centos/7/isos/x86_64/CentOS-7-x86_64 -Minimal-1804.iso
Приведенная выше команда сообщает wget
сохранить ISO-файл CentOS 7 в каталог / mnt / iso
.
Ограничение скорости загрузки #
Чтобы ограничить скорость загрузки, используйте параметр --limit-rate
. По умолчанию скорость измеряется в байтах в секунду. Добавьте k
для килобайт, m
для мегабайт и g
для гигабайт.
Следующая команда загрузит двоичный файл Go и ограничит скорость загрузки до 1 МБ:
wget --limit-rate = 1m https://dl.google.com/go/go1.10.3.linux-amd64.tar .gz
Этот параметр полезен, если вы не хотите, чтобы wget
занимал всю доступную полосу пропускания.
Возобновление загрузки #
Вы можете возобновить загрузку с помощью параметра -c
. Это полезно, если ваше соединение прерывается во время загрузки большого файла, и вместо того, чтобы начинать загрузку с нуля, вы можете продолжить предыдущую.
В следующем примере мы возобновляем загрузку iso-файла Ubuntu 18.04:
wget -c http://releases.ubuntu.com/18.04/ubuntu-18.04-live-server-amd64.iso
Если удаленный сервер не поддерживает возобновление загрузки, wget
начнет загрузку с начала и перезапишет существующий файл.
Загрузка в фоновом режиме #
Для загрузки в фоновом режиме используйте параметр -b
. В следующем примере мы загружаем iso-файл OpenSuse в фоновом режиме:
wget -b https://download.opensuse.org/tumbleweed/iso/openSUSE-Tumbleweed-DVD-x86_64-Current.iso
По умолчанию вывод перенаправляется в файл wget-log
в текущем каталоге. Чтобы следить за статусом загрузки, используйте tail
команда:
tail -f wget-log
Изменение агента пользователя Wget #
Иногда при загрузке файла удаленный сервер может быть настроен на блокировку агента пользователя Wget.В подобных ситуациях, чтобы эмулировать другой браузер, передайте опцию -U
.
wget --user-agent = "Mozilla / 5.0 (X11; Linux x86_64; rv: 60.0) Gecko / 20100101 Firefox / 60.0" http://wget-forbidden.com/
Приведенная выше команда будет эмулировать Firefox 60 запрос страницы с wget-forbidden.com
Загрузка нескольких файлов #
Если вы хотите загрузить несколько файлов одновременно, используйте параметр -i
, за которым следует путь к локальному или внешнему файлу, содержащему список URL-адресов для загрузки.Каждый URL-адрес должен быть в отдельной строке.
В следующем примере показано, как загрузить iso-файлы Arch Linux, Debian и Fedora, используя URL-адреса, указанные в файле linux-distros.txt
:
wget -i linux-distros.txt
linux- distros.txt
http://mirrors.edge.kernel.org/archlinux/iso/2018.06.01/archlinux-2018.06.01-x86_64.iso
https://cdimage.debian.org/debian-cd/current/amd64/iso-cd/debian-9.4.0-amd64-netinst.iso
https: // скачать.fedoraproject.org/pub/fedora/linux/releases/28/Server/x86_64/iso/Fedora-Server-dvd-x86_64-28-1.1.iso
Если вы укажете -
в качестве имени файла, URL-адреса будут считываться из стандартного ввода.
Загрузка через FTP #
Чтобы загрузить файл с защищенного паролем FTP-сервера, укажите имя пользователя и пароль, как показано ниже:
wget --ftp-user = FTP_USERNAME --ftp-password = FTP_PASSWORD ftp: / /ftp.example.com/filename.tar.gz
Создание зеркала веб-сайта #
Чтобы создать зеркало веб-сайта с помощью wget
, используйте параметр -m
.Это создаст полную локальную копию веб-сайта, следуя и загружая все внутренние ссылки, а также ресурсы веб-сайта (JavaScript, CSS, изображения).
wget -m https://example.com
Если вы хотите использовать загруженный веб-сайт для локального просмотра, вам нужно будет передать несколько дополнительных аргументов команде выше.
wget -m -k -p https://example.com
Параметр -k
заставит wget
преобразовать ссылки в загруженных документах, чтобы сделать их пригодными для локального просмотра.Опция -p
сообщит wget
о необходимости загрузки всех необходимых файлов для отображения HTML-страницы.
Пропуск проверки сертификата #
Если вы хотите загрузить файл через HTTPS с хоста с недействительным сертификатом SSL, используйте опцию --no-check-certificate
:
wget --no-check- сертификат https://domain-with-invalid-ss.com
Загрузка на стандартный вывод #
В следующем примере wget
незаметно (флаг -q
) загрузит и выведет последнюю версию WordPress на stdout (флаг -O -
) и направьте его в утилиту tar
, которая распакует архив в каталог / var / www
.
wget -q -O - "http://wordpress.org/latest.tar.gz" | tar -xzf - -C / var / www
Заключение №
С помощью wget
вы можете загружать несколько файлов, возобновлять частичные загрузки, зеркалировать веб-сайты и комбинировать параметры Wget в соответствии с вашими потребностями.
Чтобы узнать больше о Wget, посетите GNU wget Manual страница.
Руководство по Wget — Примеры
Руководство по Wget — Примеры Перейти к первому, предыдущему, следующему, последнему разделу оглавления.Для ясности примеры разделены на три раздела.Первый раздел — это учебник для начинающих. Второй раздел объясняет некоторые из более сложных функций программы. Третий раздел содержит советы администраторам зеркал, а также еще более сложные особенности (которые некоторые назвали бы извращенными).
- Скажем, вы хотите загрузить URL-адрес. Просто введите:
wget http://fly.cc.fer.hr/
Ответ будет примерно таким:--13: 30: 45-- http://fly.cc.fer.hr:80/ => `index.html ' Подключение к полетам.cc.fer.hr:80 ... подключено! HTTP-запрос отправлен, получение заголовков ... готово. Длина: 1749 [text / html] 0K ->. 13:30:46 (68,32 К / с) - `index.html 'сохранен [1749/1749]
- Но что произойдет, если соединение медленное, а файл длинный?
Соединение, вероятно, завершится ошибкой до того, как будет получен весь файл,
больше чем единожды. В этом случае Wget будет пытаться получить файл, пока он
либо получает все, либо превышает количество повторных попыток по умолчанию
(это 20). Количество попыток легко изменить до 45, чтобы
убедитесь, что весь файл будет доставлен в целости и сохранности:
wget --tries = 45 http: // fly.cc.fer.hr/jpg/flyweb.jpg
- Теперь оставим Wget работать в фоновом режиме и запишем его прогресс.
для регистрации файла `log ‘. Набирать `—tries ‘ утомительно, поэтому мы
должен использовать `-t ‘.
wget -t 45 -o log http://fly.cc.fer.hr/jpg/flyweb.jpg &
Амперсанд в конце строки гарантирует, что Wget работает в задний план. Чтобы не ограничивать количество повторных попыток, используйте `-t inf ‘. - Использовать FTP так же просто. Wget позаботится о логине и
пароль.
$ wget ftp://gnjilux.cc.fer.hr/welcome.msg --23: 35: 55-- ftp://gnjilux.cc.fer.hr:21/welcome.msg => `welcome.msg ' Подключение к gnjilux.cc.fer.hr:21 ... подключено! Авторизоваться как аноним ... Авторизоваться! ==> ТИП I ... готово. ==> CWD не нужен. ==> ПОРТ ... готово. ==> RETR welcome.msg ... готово. Длина: 1340 (неавторизованный) 0K ->. 23:35:56 (37.39K / s) - сохранен файл `welcome.msg '[1340]
- Если вы укажете каталог, Wget получит список каталогов,
проанализировать его и преобразовать в HTML.Пытаться:
wget ftp://prep.ai.mit.edu/pub/gnu/ lynx index.html
- Вы хотите прочитать список URL-адресов из файла? Не проблема
с этим:
wget -i файл
Если вы укажете `- ‘ в качестве имени файла, URL-адреса будут считываться из стандартный ввод. - Создайте зеркальное отображение WWW-сайта GNU (с той же структурой каталогов
оригинал имеет) только с одной попыткой для каждого документа, сохраняя журнал
действия для `gnulog ‘:
wget -r -t1 http: // www.gnu.ai.mit.edu/ -o gnulog
- Получите первый уровень ссылок Yahoo:
wget -r -l1 http://www.yahoo.com/
- Получите index.html `www.lycos.com ‘, показывая исходный
заголовки сервера:
wget -S http://www.lycos.com/
- Сохраните заголовки сервера вместе с файлом:
wget -s http://www.lycos.com/ подробнее index.html
- Получите первые два уровня `wuarchive.wustl.edu ‘, сохранив их
в / tmp.
wget -P / tmp -l2 ftp://wuarchive.wustl.edu/
- Вы хотите загрузить все GIF-файлы из каталога HTTP. `wget http: //host/dir/*.gif ‘ не работает, так как HTTP
поиск не поддерживает подстановку. В этом случае используйте:
wget -r -l1 --no-parent -A.gif http: // хост / каталог /
Это немного похоже на кладж, но это работает. `-r -l1 ‘ означает получить рекурсивно (See section Рекурсивное извлечение) с максимальной глубиной 1. `—no-parent ‘ означает, что ссылки на родительский каталог игнорируется (See section Ограничения на основе каталогов), и `-A.gif ‘ означает скачивайте только файлы GIF. `-A» * .gif «‘ работал бы слишком. - Предположим, вы были в процессе загрузки, когда Wget был
прервано. Теперь вы не хотите уничтожать уже существующие файлы.
Это было бы:
wget -nc -r http://www.gnu.ai.mit.edu/
- Если вы хотите закодировать собственное имя пользователя и пароль в HTTP или
FTP используйте соответствующий синтаксис URL (см. Раздел Формат URL).
wget ftp: // hniksic: mypassword @ jagor.srce.hr/.emacs
- Если вам не нравится визуализация поиска по умолчанию (1K точек с 10
точек на кластер и 50 точек на строку), вы можете настроить его через точку
настройки (See section Команды Wgetrc). Например, многим нравится
«бинарный» стиль поиска с 8K точек и 512K строк:
wget --dot-style = двоичный ftp://prep.ai.mit.edu/pub/gnu/README
Вы можете поэкспериментировать с другими стилями, например:wget --dot-style = мега ftp://ftp.xemacs.org/pub/xemacs/xemacs-20.4 / xemacs-20.4.tar.gz wget --dot-style = micro http://fly.cc.fer.hr/
Чтобы сделать эти настройки постоянными, поместите их в свой `.wgetrc ‘, как описанный ранее (См. раздел Пример Wgetrc).
- Если вы хотите, чтобы Wget сохранял зеркало страницы (или FTP
подкаталоги) используйте `—mirror ‘ (` -m’ ), что является сокращением
для `-r -N ‘. Вы можете поместить Wget в файл crontab, попросив его
перепроверяйте сайт каждое воскресенье:
crontab 0 0 * * 0 wget --mirror ftp: // ftp.xemacs.org/pub/xemacs/ -o / home / me / weeklog
- Вы можете сделать то же самое с чьей-либо домашней страницей. Но ты не
хотите загрузить все эти изображения — вас интересует только HTML.
wget --mirror -A.html http://www.w3.org/
- Но как насчет зеркалирования хостов, которые сетеобразно близки вам? Это
кажется ужасно медленным из-за всего этого разрешения DNS. Просто используйте `-D ‘ (См. Раздел« Принятие домена »).
wget -rN -Dsrce.hr http: // www.srce.hr/
Теперь Wget правильно обнаружит, что `regoc.srce.hr ‘ то же самое как `www.srce.hr ‘, но даже не будем принимать во внимание ссылка на `www.mit.edu ‘. - У вас есть презентация, и вы хотите, чтобы тупые абсолютные ссылки были
преобразован в родственник? Используйте `-k ‘:
wget -k -r URL
- Вы хотите, чтобы выходные документы выводились на стандартный вывод вместо
в файлы? ОК, но Wget автоматически отключится (включите `—quiet ‘), чтобы предотвратить смешивание вывода Wget и полученного
документы.
wget -O - http://jagor.srce.hr/ http://www.srce.hr/
Вы также можете комбинировать эти два варианта и создавать странные конвейеры для получить документы из удаленных горячих списков:wget -O - http://cool.list.com/ | wget --force-html -i -
Перейти к первому, предыдущему, следующему, последнему разделу оглавления.
Как загрузить файлы данных — Документация по учебным модулям ENA 1
Предоставление пользователям возможности загружать представленные данные для дальнейшего Цели анализа — ключевая часть миссии ENA. Таким образом, файлы доступны через общедоступный FTP-сервер.Здесь вы можете узнать, как устроен этот сервер, и как его скачать, прочитать и файлы анализа.
Структура FTP
Корневой адрес FTP-сервера, содержащий все данные чтения и анализа:
ftp://ftp.sra.ebi.ac.uk/vol1/
Между тем, собранные и аннотированные данные последовательности можно найти по адресу:
ftp://ftp.ebi.ac.uk/pub/databases/ena/
Любой файл, загружаемый с ENA, поступает с одного из этих двух FTP-серверов. Их содержание и структура подробно описаны на следующих страницах:
Загрузка файлов
ENA предоставляет множество способов доступа к данным, которые он размещает, подходя для целого ряда варианты использования и уровни вычислительной способности.Они описаны ниже, отсортированные от низкого к высокому, в зависимости от того, сколько вычислительные способности могут потребоваться:
Примечание
Большинство каталогов содержат файл «.md5». Вы можете рассчитать значение MD5 для файл, который вы скачали, и сравните его с соответствующим файлом .md5, чтобы Подтвердите, что он был переведен полностью.
Использование браузера ENA
Браузер ENA — это наш веб-сайт, на котором вы можете получить информацию о ENA, а также доступ ко всем имеющимся у нас данным.Приходите к нам здесь:
https://www.ebi.ac.uk/ena/browser/home
Вы можете перейти к любому присоединению, введя его в поле «Ввести присоединение» на ссылка выше. Если, например, вы видите в документе ссылку на присоединение к ENA, вы можете увидеть данные для себя таким образом. Оказавшись там, вы можете загрузить любые связанные файлы, щелкнув соответствующий ссылки. Для получения дополнительной информации о том, как исследовать запись в ENA, посетите наше руководство. о том, как изучить проект ENA
Использование загрузчика FTP ENA
Загрузчик файлов FTP ENA — это приложение, которое можно загрузить с GitHub.При присоединении эта программа представит вам список связанных файлов. можно скачать. Кроме того, вы можете предоставить запрос из нашего API расширенного поиска или портала. API для выполнения массовой загрузки всех файлов по заданному набору критериев. Узнайте больше об этих API из нашего руководства о том, как получить доступ к ENA. Программно.
Использование
GlobusGlobus предоставляет более удобный, многофункциональный интерфейс каталогов для взаимодействие с FTP-сервером. Файлы могут быть загружены через Globus «Общая общедоступная конечная точка EMBL-EBI». конечная точка из подпапки ‘/ gridftp / ena’:
Использование
wgetwget — это простой инструмент командной строки, повсеместно доступный в Linux и Mac. выпускает.Файл можно загрузить с помощью wget, просто указав его местоположение:
$ wget ftp://ftp.sra.ebi.ac.uk/vol1/fastq/ERR164/ERR164407/ERR164407.fastq.gz
Использование FTP-клиента
FTP-клиенты командной строки позволяют интерактивно исследовать FTP-сервер и загрузить данные на свой локальный компьютер. При запросе имени пользователя используйте «анонимный». При запросе пароля нажмите нажмите клавишу ввода, чтобы пропустить это.
ftp ftp.sra.ebi.ac.uk Имя: анонимный Пароль: ftp> cd vol1 / fastq / ERR164 / ERR164407 ftp> получить ERR164407.fastq.gz
В приведенном выше примере команда «cd» используется для «смены каталога» на требуемый каталог. Затем используется команда «get», чтобы указать интересующий файл. В любое время вы можете использовать «ls» для просмотра содержимого текущего каталога. Команда «pwd» может использоваться для определения текущего каталога.
Использование
AsperaКлиент командной строки Aspera ascp можно загрузить с Aspera. Пожалуйста, выберите правильную версию для вашей операционной системы.Клиент командной строки ascp распространяется как часть соединения Aspera. высокопроизводительный плагин для браузера передачи.
Для загрузки общедоступных данных требуется файл аутентификации с открытым ключом. Это предоставляется в пакете загрузки клиента командной строки Aspera как Файл «asperaweb_id_dsa.openssh». Расположение этого файла варьируется от платформы.
Ниже приведены некоторые примеры использования Aspera для загрузки данных ENA:
Unix
ascp -QT -l 300m -P33001 -i путь / к / aspera / installation / etc / asperaweb_id_dsa.локальный \ целевой \ каталог
Загрузка личных файлов
например Если вы хотите использовать aspera для загрузки закрытого файла данных с использованием аутентификации datahub (dcc), укажите имя пользователя dcc вместо era-fasp, и вам будет предложено ввести пароль.
ascp -QT -l 300m -P33001 \ [email protected]: /vol1/fastq/ERR327/009/ERR3278169/ERR3278169_1.fastq.gz \ локальный / целевой / каталог
Загрузка собранных и аннотированных данных последовательности
Файлы из общедоступных FTP-папок также можно загрузить с помощью Aspera.
например последовательность WGS, такая как ftp://ftp.ebi.ac.uk/pub/databases/ena/wgs/public/wy/WYAA01.dat.gz
ascp -QT -l 300m -P33001 -i путь / к / aspera / installation / asperaweb_id_dsa.openssh / [email protected]: базы данных / ena / wgs / public / wy / WYAA01.dat.gz local / target / directory
История фиксации — (может быть неполным: см. Ссылку SVNWeb выше для получения полной информации) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Дата | Автор | Описание | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
06 апр 2021 14:31:07 1.21 | мат | Удалите # $ FreeBSD $ из Makefiles. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
13 января 2021 г. 00:29:41 1,21 | пкубай | ftp / wget: исправление сборки на архитектурах GCC tempname.c: В функции 'try_tempname_len': tempname.c: 288: error: начальное объявление цикла for, используемое вне режима C99 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
07 янв.2021 15:28:14 1,21 | vd | ftp / wget: обновление с 1.От 20,3 до 1,21 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git/plain/NEWS PR: порты / 252369 Сообщает: Ясухиро Кимура | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
16 ноя 2020 20:36:22 1.20.3_1 | amdmi3 | - Обрабатывать две недостающие зависимости, pcre2 и nettle. - Улучшена обработка PCRE в опциях, добавлена опция NTLM. - Безоговорочно используйте pkg-config, он используется для определения всех зависимостей и является требуется для правильного обнаружения pcre2 - Используйте USES = localbase вместо дубликатов CPPFLAGS / LDFLAGS для большинства опций. PR: 251189 Утверждено: vd (сопровождающий) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
09 окт 2019 10:40:21 1.20,3 | крещение | Удалите виртуальную категорию ipv6 для категории f *, поскольку она больше не актуальна | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
27 сен 2019 15:01:32 1.20.3 | данфе | Преобразовать в USES + = tar: lz (доступно с r504008). | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
10 апр 2019 10:42:19 1.20.3 | vd | ftp / wget: обновление с 1.20 до 1.20.3 Журнал изменений: http: // git.savannah.gnu.org/cgit/wget.git/plain/NEWS MFH: 2 квартал 2019 г. Безопасность: CVE-2018-20483 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
09 фев 2019 23:25:37 1.20_2 | солнечный поэт | Обновление dns / libidn2 до версии 2.1.1 - Bump PORTREVISION зависимых портов для смены shlib Изменения: https://gitlab.com/libidn/libidn2/blob/master/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 янв 2019 20:39:43 1.20_1 | солнечный поэт | Обновите dns / libidn2 до 2.1.0 - Bump PORTREVISION зависимых портов для смены shlib Изменения: https://gitlab.com/libidn/libidn2/blob/master/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
03 декабря 2018 09:38:25 1,20 | vd | ftp / wget: обновление с 1.19.5 до 1.20 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git/plain/NEWS PR: порты / 233738 Сообщает: [email protected] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11 ноя 2018 13:33:22 1.19.5_1 | крещение | Отбойники, которые должны были быть подбиты вместе с r484628 Сообщает: kib | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
30 авг 2018 04:05:08 1.19,5 | данфе | Удалите избыточные DOCS, NLS, ПРИМЕРЫ и IPV6 из OPTIONS_DEFAULT, поскольку они помещаются туда фреймворком (см. строку 200 Mk / bsd.options.mk), кроме для `finance / Quantlib ', что делает очень неортодоксальное использование параметров порта. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
09 мая 2018 16:18:53 1.19.5 | vd | ftp / wget: обновление с 1.19.4 до 1.19.5 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git / plain / НОВОСТИ PR: порты / 228071 Автор: Ясухиро КИМУРА | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
27 фев 2018 13:24:14 1.19.4_2 | солнечный поэт | Обновить dns / libpsl до 0.20.1 - Bump PORTREVISION зависимых портов для смены shlib Изменения: https://github.com/rockdaboot/libpsl/blob/master/NEWS https://github.com/rockdaboot/libpsl/blob/libpsl-0.20.1/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
23 фев 2018 19:23:57 1.19.4_1 | солнечный поэт | Обновить dns / libpsl до 0.20.0 - Bump PORTREVISION зависимых портов для смены shlib Изменения: https://github.com/rockdaboot/libpsl/blob/master/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
15 фев 2018 14:41:29 1.19.4 | brnrd | security / openssl-devel: удалить BROKEN из некоторых портов * базы данных / freetds: исправлено 14 февраля 2017 г. * database / postgresql10-server: исправлено 15.09.2016 [1] * ftp / lftp: исправлено в 4.8.0 * ftp / proftpd: исправлено в версии 1.3.5c * ftp / wget: исправлено в 1.19.3 [2] * lang / erlang-runtime20: исправлено в 20.0 * net / socat: исправлено в 1.7.3.2 * security / libssh3: исправлено в 1.8.0 [3] * security / p5-Crypt-OpenSSL-X509: исправлено в 1.8.8 * sysutils / bacula9-server: исправлено в 9.0.6. * www / nginx: исправлено в 1.9.14 * Массовая сборка OK 10.3 / 11.1 для i386 и amd64: - мультимедиа / librtmp - сеть / libvncserver - www / lynx PR: 225875 [1], 225872 [2], 225873 [3] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
22 янв 2018 17:20:18 1.19,4 | vd | ftp / wget: обновление с 1.19.2 до 1.19.4 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git/plain/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
27 октября 2017 г. 12:50:37 1.19.2 | vd | ftp / wget: обновление с 1.19.1 до 1.19.2 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git/plain/NEWS Автор: Эндрю Перри | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
28 июл 2017 21:45:20 1.19.1_1 | jkim | Задайте для MAKEINFO полный путь к makeinfo, если установлено USES = makeinfo. PR: 221027 Рецензент: mat Утверждено: portmgr (antoine) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 июл 2017 18:14:22 1.19.1_1 | vd | ftp / wget: принудительно перестроить информационную страницу MAKEINFO должен быть определен в среде настройки, чтобы информационная страница будет перестроена. Прислал: jkim | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 июл 2017 07:12:57 1.19.1_1 | vd | ftp / wget: исправить путь makeinfo В FreeBSD 10.x makeinfo находится в / usr / bin / makeinfo, тогда как в 11.x он находится в / usr / local / bin / makeinfo. Не указывайте его полный путь расположение, например DOCS_CONFIGURE_ENV = MAKEINFO = "$ {LOCALBASE} / bin / makeinfo" поскольку достаточно иметь его в PATH (в / usr / bin или / usr / local / bin). Автор: Вальтер Шварценфельд | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 июл 2017 05:02:41 1.19.1_1 | vd | ftp / wget: параметры документации Tweak * Добавьте отдельную опцию, чтобы контролировать, должна ли быть установлена страница руководства * Обрабатывать wgetrc.sample с помощью @sample согласно https://www.freebsd.org/doc/en/books/porters-handbook/plist-config.html и https://www.freebsd.org/doc/en/books/porters-handbook/plist-keywords.html#plist-keywords-sample * Теперь опция DOCS только контролирует, установлена ли информационная страница или нет. Прислал: jkim | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
20 июл 2017 09:59:33 1.19,1 | vd | ftp / wget: сделать установку документации необязательной Прислал: jkim | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 апр 2017 08:56:23 1.19.1 | vd | Обновление ftp / wget с 1.19 до 1.19.1 Журнал изменений: http://git.savannah.gnu.org/cgit/wget.git/plain/NEWS - добавить тестовую цель и TEST_DEPENDS - удалить gmake из ИСПОЛЬЗОВАНИЯ: текущую версию wget можно собрать без gmake - параметр unbreak IDN: с версии 1.19 wget использует libidn2 вместо libidn - libidn2 использует libunistring из портов, поэтому, когда включена опция IDN используйте libunistring из портов вместо прилагаемого - отключение поддержки pcre с помощью./ configure --disable-pcre в настоящее время работает, используй это - удалить Makefile и настроить исправления, которые больше не нужны - патч / usr / local к $ PREFIX также в wget.info - удалить файлы / patch-src__main.c - эта ошибка исправлена 2 марта 2015 г. [1] [1] http://git.savannah.gnu.org/cgit/wget.git/commit/?id=9dde436dd689bd51eef71d64152dde9c8c0b5f65 PR: 218408 Прислал: Антон Южанинов | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
15 марта 2017 14:45:31 1,19 | мат | Удалить все вхождения USE_OPENSSL.Спонсор: Absolight | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
05 фев 2017 16:47:34 1,19 | vd | ftp / wget: исправить ошибку компиляции из-за передачи -R в clang gcc принимает -R, но clang требует -Wl, -R и, поскольку мы меняем это используйте правильный -Wl, -rpath. Сообщают: Вальтер Шварценфельд, Барбара Гуида, Джимми Олджени, Кен Дж. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
05 фев 2017 09:54:32 1,19 | vd | ftp / wget: обновление с 1.18_2 к 1.19 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
17 декабря 2016 12:50:19 1.18_2 | солнечный поэт | - обновление до 0.16.1 - Bump PORTREVISION для зависимых портов Изменения: https://github.com/rockdaboot/libpsl/blob/master/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
12 декабря 2016 20:57:42 1.18_1 | солнечный поэт | - Обновление до 0.16.0 - Bump PORTREVISION для зависимых портов Изменения: https://github.com/rockdaboot/libpsl/blob/master/NEWS | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
29 ноя 2016 18:46:22 1.18 | мат | Отметить некоторые порты как неготовые к openssl-devel. Спонсор: Absolight | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
21 ноя 2016 17:36:35 1,18 | солнечный поэт | - Добавить опции METALINK и PSL ====> Выполнение тестов Q / A (stage-qa) Ошибка: / usr / local / bin / wget связан с /usr/local/lib/libmetalink.so.3 из misc / libmetalink, но он не объявлен как зависимость Предупреждение: вам понадобится LIB_DEPENDS + = libmetalink.так: разное / libmetalink Ошибка: / usr / local / bin / wget связан с /usr/local/lib/libpsl.so.5 из dns / libpsl, но он не объявлен как зависимость Предупреждение: вам нужен LIB_DEPENDS + = libpsl.so: dns / libpsl PR: 214269 Дифференциальная версия: https://reviews.freebsd.org/D8456 Прислал: sunpoet (я) Утверждено: сопровождающим (тайм-аут, 15 дней) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
21 июня 2016 19:52:42 1,18 | vd | ftp / wget: исправить компиляцию, когда IDN и NLS отключены PR: 210441 Прислал: Хельге Олдах | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
21 июня 2016 08:02:57 1,18 | vd | ftp / wget: обновление с 1.16.3_1 до 1.18 PR: 210421 Прислал: Владимир Крстуля | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
01 апр 2016 14:00:57 1.16.3_1 | мат | Удалите $ {PORTSDIR} / из зависимостей категорий d, e, f и g. В шляпе: portmgr Спонсор: Absolight | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
01 апр 2016 13:18:17 1.16.3_1 | мат | Исправьте некоторые проблемы с пробелами в начале строк. В шляпе: portmgr Спонсор: Absolight | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
27 марта 2016 14:58:00 1.16.3_1 | tijl | - Обновление security / gnutls до 3.4.10. - Переименуйте опцию LIBDANE в DANE, потому что это имя протокола. поддерживается libgnutls-dane и gnutls-cli. Также уточните вариант описание. - Добавить опцию IDN.- libgnutls-openssl был удален в 3.4. Некоторые порты использовали эту библиотеку в их LIB_DEPENDS, но на самом деле ни один порт не требовал этого. - Удалены некоторые старые функции API. Порты, которые их использовали, были обновлен или исправлен для использования нового API. - Добавьте патч в print / cups, чтобы предотвратить перекрытие libgnutls.so. - Поднять PORTREVISION на зависимые порты. net-im / jabber: этот порт использовал старый API, чтобы дать пользователям мелкозернистую контроль над тем, какие криптоалгоритмы использовались, через файл конфигурации.Не сразу понятно, как перенести это на новый API, чтобы порт теперь всегда использует значения по умолчанию. www / hydra: Марк БРОКЕН. Это использует больше удаленных вызовов, чем другие порты, считается альфа-качеством, не полностью функциональным и от него отказались 10 лет назад. PR: 207768 Экспертиза: антуан Утверждено: portmgr (antoine) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
12 янв 2016 16:20:32 1.16.3 | amdmi3 | Преобразовать LICENSE = "GPLxx # или более поздняя версия" в "GPLxx +" Утверждено: portmgr blanket | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
19 июня 2015 14:59:14 1.16,3 | адамв | Обновление до 1.16.3. Это обновление также исправляет сборку с LibreSSL [2]. PR: 199316 1 [2] Утверждено: тайм-аут сопровождающего (> 2 месяцев) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11 апреля 2015 18:05:15 1.16.2_1 | робак | ftp / wget: добавить информацию о CPE - Тайм-аут сопровождающего ([email protected]) PR: 198840 Прислал: Шун | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 марта 2015 20:00:38 1.16.2_1 | vd | ftp / wget: исправить ошибку восходящего потока # 44403: wget --quiet больше не тихо http://savannah.gnu.org/bugs/index.php?44403 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
04 марта 2015 16:08:42 1.16.2 | vd | ftp / wget: обновление с 1.16 до 1.16.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11 декабря 2014 14:07:26 1,16 | amdmi3 | - Дальнейшее упрощение MASTER_SITES Предложил: danfe Утверждено: тайм-аут сопровождающего | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11 декабря 2014 г. 13:03:54 1.16 | amdmi3 | - Убрать скрытую зависимость libuuid.so из misc / e2fsprogs-libuuid Пока здесь: - Упростите MASTER_SITES - Уточните ЛИЦЕНЗИЮ и добавьте LICENSE_FILE PR: 180619 Прислал: [email protected] Утверждено: тайм-аут сопровождающего (vd, 16 месяцев) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 ноя 2014 13:26:28 1,16 | vd | ftp / wget: обновление с 1.15_2 до 1.16 PR: порты / 194784 Прислал: Ясухиро КИМУРА Безопасность: CVE-2014-4877 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
30 августа 2014 18:18:14 1.15_2 | tijl | DNS / libidn: - Добавить USES = libtool и поднять зависимые порты - Добавить INSTALL_TARGET = install-strip - Всегда устанавливайте libidn-components.png, потому что он используется libidn.info - Добавьте -lintl в Libs.private вместо Libs в libidn.pc | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
23 июля 2014 09:54:02 1.15_1 | tijl | - Замените security / gnutls на security / gnutls3 и обновите до 3.2.15 - Bump PORTREVISION на всех портах, зависящих от безопасности / gnutls и настроить все порты зависящие от безопасности / gnutls3 - Обновите почту / анубис до версии 4.2, который поддерживает gnutls 3.x - Обновите mail / libvmime до снимка состояния разработки (рекомендовано апстримом). Разработчики) PR: 1 Экспертиза: антуан Утверждено: portmgr (antoine) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
03 июл 2014 17:34:12 1,15 | адамв | Используйте помощники OPTIONS. Утверждено: portmgr (blanket) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 июня 2014 13:51:14 1,15 | антуан | Разрешить сборку с texinfo из портов В шляпе: portmgr | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
17 июн 2014 21:51:22 1.15 | ракуко | Перейти к USES = tar: xz. PR: 1 Прислал: [email protected] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14 фев 2014 11:25:46 1,15 | vd | ftp / wget: используйте LIB_DEPENDS в форме lib <имя> .so https://wiki.freebsd.org/ports/fix_lib_depends PR: порты / 186718 Прислал: Ээро Ханнинен | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14 фев 2014 07:59:02 1.15 | vd | ftp / wget: обновление с 1.14_2 до 1.15 PR: ports / 186718 (его части) Прислал: Ээро Ханнинен | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
12 фев 2014 13:22:28 1.14_3 | tijl | Добавить недостающую зависимость от iconv. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
28 января 2014 13:33:40 1.14_2 | miwi | - Опора сцены | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
24 окт 2013 14:23:53 1.14_2 | vd | Исправить компиляцию ftp / wget при установленном perl 5.18. Патч из upstream репо, предложенный Антоном Южаниновым | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
20 сен 2013 17:23:19 1.14_2 | крещение | Добавьте NO_STAGE повсюду в рамках подготовки к промежуточной поддержке (кат. ftp) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14 сен 2013 12:04:19 1.14_2 | az | - преобразовать в новый фреймворк perl5 - преобразовать USE_GMAKE в Uses Утверждено: portmgr (bapt @, blanket) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14 августа 2013 22:35:54 1.14_2 | ak | - Удалить переменную MAKE_JOBS_SAFE Утверждено: portmgr (пивоварня) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
17 мая 2013 08:11:03 1.14_2 | vd | ftp / wget: исправление сборки с установленным texinfo-5 PR: порты / 178646 Прислал: Кристоф Мёнч-Тегедер | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
14 мая 2013 08:27:48 1.14_2 | vd | ftp / wget: добавьте параметр для выбора, использовать ли PCRE или нет. Была предложена штука "CONFIGURE_ENV = ac_cv_header_pcre_h = no" by bapt @, спасибо! | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
13 мая 2013 13:52:37 1.14_1 | vd | ftp / wget: подключить зависимость к devel / pcre PR: порты / 178285 Прислал: pawel @ | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 апреля 2013 10:44:29 1.14 | ak | - Преобразование USE_GETTEXT в USES (часть 4) Утверждено: portmgr (bapt) | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
18 апреля 2013 06:09:24 1,14 | vd | ftp / wget: Нефункциональное изменение - замените файл патча командой sed. PR: порты / 177792 Прислал: jgh @ Функция безопасна: да | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11 апреля 2013 10:03:50 1,14 | vd | ftp / wget: * Исправлена опечатка в переменной опций (введена в r315271) * Изменение пробелов для выравнивания значений PR: порты / 177662 Прислал: Джереми Чедвик | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
26 марта 2013 09:58:34 1,14 | крещение | Преобразование левых неконвертированных портов в ftp в новую структуру опций | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
18 марта 2013 11:40:04 1,14 | крещение | Исправить давнюю ошибку, связанную с перезаписью, изменением и изменением lib / charset.alias. плохо отслеживается портами. Сделайте lib / charset.alias файлом, предоставляемым только конвертерами / libiconv Создайте новый USES: charsetfix, который изменит файл Makefile после обновления.в запретить порт изменять / перезаписывать файл charset.alias во время make установить. Не позволяйте программе devel / gettext устанавливать эти файлы. Исправьте пару портов, которые действительно касаются charset.alias на этапе сборки. По мотивам патча Эля (http://lists.freebsd.org/pipermail/freebsd-gnome/2012-October/027747.html) Утверждено: kwm (gnome) Эксплуатация: miwi | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
18 фев 2013 16:01:01 1,14 | vd | Обновить ftp / wget с версии 1.13,4 к 1,14 PR: порты / 174818 Прислал: "Андерс Н." | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
05 фев 2013 16:17:07 1.13.4_2 | роман | - Добавить запись ОБНОВЛЕНИЕ для обновления gnutls - Чейз шлиб версии отбойника для зависимых портов | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
21 сен 2011 06:31:51 1.13.4_1 | vd | Исправить pkg-plist: не удалять lib / charset.alias Обнаружил: olgeni @, pav @ | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
20 сен 2011 12:59:04 1.13,4 | vd | Исправить компиляцию с SSL. Прислал: Sture Ã… hlin | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
20 сен 2011 06:17:40 1.13.4 | vd | Обновление ftp / wget с 1,12 до 1,13,4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
05 июня 2011 18:43:16 1.12_4 | роман | Выполните обновление безопасности / gnutls и добавьте запись ОБНОВЛЕНИЕ. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
19 марта 2011 12:38:54 1.12_3 | miwi | - Избавиться от поддержки MD5 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
15 марта 2011 13:34:26 1.12_3 | vd | Добавить необязательную зависимость в libidn Раньше, если libidn присутствовала во время настройки wget, тогда wget подхватил бы его, но зависимости не было бы записывается в базу данных установленных пакетов, поэтому позже обновляется или удаление libidn приведет к поломке wget. Заметил: [email protected], [email protected] | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 сен 2010 17:15:01 1.12_2 | vd | Продолжение предыдущего коммита: исправьте недавно добавленные патчи | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
06 сен 2010 16:54:23 1.12_2 | vd | Примените исправление из апстрима для CVE-2010-2252. Это идентификатор ревизии: [email protected]
|