Мне интересно, есть ли эффективный способ резервного копирования файлов с (S) FTP-сервера (Exavault) в Google Cloud Storage (GCS) ). Мы используем управляемую FTP-службу Exavault и хотим регулярно создавать резервные копии файлов в GCS, а затем удалять файлы старше 30 дней из Exavault.
Текущая реализация (Кровавая медленная):
curlftpfs
gsutil rsync
для синхронизации файлов из подключенного хранилища в GCS Bucket Этот метод работает очень медленно, и я не думаю на данном этапе это будет разумным решением. похоже, что все в конечном итоге использует HTTP1.1 10.0.3.103 - - [04 / ноя / 2016: 01: 23: 47 +0000] «GET /login.html HTTP / 1.1» 200 4916
<Connector port="8080" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" >
<UpgradeProtocol className="org.apache.coyote.http2.Http2Protocol" />
</Connector>
I ' m пытается убедиться, что все работает правильно, и из того, что я вижу, я предполагаю, что LB просто обрабатывает все как h2, а затем конвертирует его обратно в http 1.1 на задней панели, что, очевидно, не совсем то, что я ' м ищу.
Чтобы уточнить, LB - это мой концентратор TLS, и соединения с моими внутренними серверами не защищены.
ELB обращается к прокси-серверу на вашем ec2 экземпляры в среде beanstalk. с tomcat вы получите httpd. похоже, что на данный момент mod_http2 не поддерживается / не включен в образ aws linux.
, если бы mod_http2 присутствовал, необходимая конфигурация выглядела бы так
LoadModule http2_module modules/mod_http2.so
<IfModule http2_module>
LogLevel http2:info
</IfModule>