【アップローダー】 必ずPCからの閲覧を許可に設定して下さい。 動画の場合「保存許可」や「ダウンロード許可」も設定して下さい。 ■静止画専用 イメぴた(http://imepita.jp ) 送信先アドレス:p@imepita.jp (1ページに1枚・追加不可) ■動画専用 UPdoga(http://www.updoga.com/ ) 送信先アドレス:upp@updoga.com (PCからの投稿不可) ■@ピタ(http://pita.st/ ) 送信先アドレス:up@pita.st (4:20am~4:40am 定期メンテ) ■ナショナルアドレス(http://new.cx/ ) 送信先アドレス:up@new.cx (8:00pm~4:00amはPCからの閲覧不可) ■ピクト(http://www.pic.to/ ) 送信先アドレス:up@pic.to (7:00pm~4:00amはPCからの閲覧不可) ■あぷあぷ(http://upup.be/ ) 送信先アドレス:up@upup.be (最大6枚/500kb・動画可) ※@ピタ利用の際のお願い @ピタはauユーザーが動画を見れませんので、携帯向けにナショナルアドレスにもアップロードして頂くか、 【静止画】@ピタ【動画】UPdoga という様に使い分けをして頂けると幸いです。 お手数をおかけしますが宜しくお願いします。 適当にリンクを拾ってみました スレを斜め読みすると過去の書き込みの情報がかなり重要だと思うのですがとても追い切れません
hpに画像がサーバー外の画像のリンクから 画像を読み出して表示してるバナー広告とかサムネイル みたいな場合でキャプチャみたいにその外部の画像の表示もそのまま ローカルに保存できるソフトってありますか? キャプチャでもいいんですがそれだとリンクが使えないので
フレームも含めて全体を取り込む事ができないツールばっかりだな
wikiってなんであんな糞なの? 項目名に日本語が含まれてるだけでブラウザでまともに保存すらできないし、 保存できたとしても、リンクのアドレスが文字化けしてめちゃくちゃ。
ローカルに保存するなってことだろう どうしても必要ならGetHTMLWのProxyMode2でいけないこともない
巡集でインターネットアーカイブを取り込める方法はあるんでしょうか?
>>19 ワロタ Webox以外ないってことだね あきらめるわ 巡集うpキタ ver 1.7.1A (2007/02/25) *ブログサイトのダウンロード精度を向上。 *User-Agentのランダム設定で落ちるバグを修正。
ウェブオートがないね?相変わらず愛用してるんだけど
見てきた 巡集作者の株日記って面白いのか 今度ゆっくり見てみよう
>>14 firefoxの拡張のscrapbook。 簡単で、まともに保存できるのはこれくらいの気がする。 ただ、時間がかなりかかる(待機時間があるため)。 この待機時間がなければ、もっと軽快なんだけど。 朝鮮人の糞サイトがどうしようもねー。 全てのページをひとつのphpで振り分けやがる上に、ページ表示のバリエーションの条件をURLにぶちこんでいるから全てのパターンを拾いやがる。 同じベージを何百回も落としてる感じ。死ねよ。
巡集はそこはかとなくバージョンアップしているけどどこでバージョン上げたらいいか分からないな 未だに勝手知ったる古いバージョンのまま
>Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、 >サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。 これって現バージョンでも有効なん?
他の掲示板にも書込みしたのですが返信がないのでこちらにも書かせて いただきます。パソコンのソフトを探しています。 まずキャプチャソフトで、そのページの画面に表示されている部分だけではなく 上から下まで全てキャプチャ出来るソフトでなおかつjpegなど画像形式での保存ではなくhtml形式で保存が出来るソフト。 もっと具体的な内容なのですが、例えば ・http://www.windsor-hotels.co.jp/0601/hotel/main.html のサイトのキャプチャをしたいのですがどうしても、保存しても真っ白になって表示されたり、 00/100のように表示されてしまいます。 次に、最近多いFlashを使用したWebサイトをFlashも含めて丸ごとサイト自体を保存できるソフト。 ・http://www.actors.jp/home.htm のサイトを丸ごとインターネットで接続して閲覧しているときと同じように保存したいのですが、 それもどうしても真っ白になって表示されたりしてしまいます。 を探しています。いずれもFlashのみの保存ではなくWebページ全体での保存が希望です。 フリーソフトでもシェアソフトでも構いません。 今までベクターで検索したり、色々と購入して試してきましたが理想通りに保存できず・・・。 皆さんの知識を教えていただければ助かります。よろしくお願いします。 >今までベクターで検索したり、色々と購入して試してきましたが 詳しく。
>>34 今まで試してきたソフトは沢山ありすぎますが記載させていただきます。 <キャプチャソフト> HyperShot/Instant Camera/SCap/Super Capture (スーパーキャプチャー) WebScan/メモメモ+/Atropos/AutoCapture/ClipDesk/CrenaHtml2jpg EasyCapture 2002/EzCutter/GOLD Japan Snap/IECapture/MiCapture PHARMACY/ViewletBuilder4 PRO/WebExe/Webよ止まれ ~EternalWeb~ WinCapture/WinCatch!!/WinShot/みやきゃっぷ/ワンタッチ全画面キャプチャ ワンタッチ全画面キャプチャ2/画像キャプチャ「おとりなさい」/画面キャプチャ君 画面ライター <ダウンロードソフト> 1・2のHTMLダウンロード From CGI/INTERNET POWER DOWNLOAD 3.0 iScrap/ダウンロードNinja 4 for Windows/ダウンロードSpider4 驚速ダウンロードSUPER/紙copi/AutoURL!/CompleteGetter EasyWebHunter/File Picker/Firefox/FlashGet (JetCar)/GetHTML GetHTMLW/PageDown/webget/WeBoX/WEB収集ブラウザ/ダウンローダー雨 波乗野郎 になります。よろしくお願いします。 >>35 ブラウザのファイルメニューから保存を選択すればよろしい。 ダウンロードリストにて出力ファイル、フォルダ等を指定して ダウンロードできるようなソフトってありますでしょうか?
GETHTMLWで取得終了しましたが、トップページからリンクされている 別のサイトのページが取得できていませんでした。 別のサイトのページだけ取得するにはどうすればいいでしょうか。
http://jugem.jp ここのブログを使ったサイトをDLしたいのですが 巡集ではうまく落とすことができず困っています 「ダウンロードするURL」欄にhttp:/******.jugem.jpといれて ダウンロード開始ボタンを押しているのに そのページにリンクされてるページがDLできないのです どなたかブログを丸ごと取り込むコツを教えてください また巡集以外で簡単に取り込めるソフトがあればおしえてください TeleportがSWFリンク辿ってくれたらなあ…
HPやページの更新があったら自動で落としてくれて、 名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある?
SDP Downloaderについての質問です。 このソフトでcmm://~.wmvというファイルをダウンロードしているんですが、 何度やっても99%のところで止まってしまいます。 どうすれば100%にできるんでしょうか?
今の取り込みソフトって、ロールオーバーって取り込めるソフトが大半なの? それとも全く無いの? 昔、ダウンロードNINJAで1→2→3と試してもことごとく出来なかったから、 もう取り込みはあきらめてしまったのだが。 できるんなら、また取り込みやってみようかなと思うんだが。
XPSP2 巡集 ver 1.7.1A 巡集のlog開いた時の「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか? 前使ってた時は、小さかったんですが、新しく入れなおしたら、ちょっと大きくなってました。 ブラウザの文字の大きさの設定は「最大」ですが 前の巡集は、ブラウザの設定で言うと「中」の大きさでした。 後 「2007/05/14 15:11 : webサイト名 : URL」 とかってなってますが、URLの部分を消した状態で保存する事って出来ないでしょうか? 両方ともlogをメモ帳とかで開いて、書き換えるしかないですか? 文字の大きさは、何もしなくても小さかったと思うんですが・・・。 今のlogは↓のようになっています、どなたか教えてください。 長くなってすいません、よろしくお願いします。 <html> <head> <META http-equiv="Content-Type" content="text/html; charset=Shift_JIS"> <title>HTML参照</title> </head> <body> 2007/05/14 15:11 : <a href="ファイルが保存されているパス">タイトル</a> : <font color=red>URL</font><br> </body> </html>
>「HTMLへの参照」の文字の大きさを変えるにはどうしたらいいでしょうか? 巡集は関係ないんじゃないか? 使ってるブラウザの設定の問題だろ >URLの部分を消した状態で保存する事って出来ないでしょうか? なぜ消したいのかが理解できないが、「URLの部分」だけ消すことはできない HTML参照(log)そのものを残したくないなら設定→保存→履歴HTMLのチェックを外せばいい
>>58 いえ、前の巡集のlogには何やら色々コードが書いてあって それで、小さくなってたと思います。 >>57 みたいに、シンプルじゃありませんでした。 ブラウザの設定は変えずに、そのままでも小さかったです。 HTML参照(log)を残したいわけではなく、赤字のURLの部分を消したいんです。 >>59 俺の巡集logにはそんな記述はないので、小さくなってたと思いますと言われても ああそうですかとしか答えられない 後半は無理。 >「URLの部分」だけ消すことはできない って書いただろ? それでもあえて消したいなら、自分で書きかえるか全部消すしかないってことですよ 漏れならSpeeeedでスタイルシートを挿入して URLの部分を消すけどね それだとログの追加時におかしくなる可能性はあるけども このソフトは時々行方知れずになったから 探せば文字小な過去ヴァージョンをうpしてるところもあるんじゃないの
念のために昔のバージョン1.44とと1.56と最新バージョン1.7.1Aのlogを比べてみたけど 全く同じだったよ
もしかして1.00とかの超初期バージョンの話なのか? だったら作者さんに要望を出したほうが早いんじゃないかねえ
rapgetでプロクシリストごと登録してひたすら待ってるんですが いっこうに落ちてきません。これって自動的にリストにあるプロクシを 切り替えるんですよね?!(´・ω・`)
プログラムはあなたが望んだように動くのではない あなたが命じたように動く
ダウンロードソフトって、どうして必要なのか、わからなくて、 とりあえず、無料のソフトをおもいきり、いれてみた。 それで、インターネットをブラウジングしていると、動画とか音楽のサイトを 見ていると、わけのわからないアイコンがいくつも出てくる。 邪魔だから消す目的で、適当にいじると、勝手にダウンロードが始まって、 ビビった。それも、複数のソフトで同じファイルを同時ダウンロードするんだね。 これで、やっとダウンロードソフトの意味がわかった。 急いで、アンイストールしたのはいうまでもない。 つくづく漏れってパソコン暦長いのにアホだと思ったよ。
>>72 必要な理由 ブラウザの右クリックで保存するよりも速いから ダウンロード後のファイルの整理をしやすいから 等など色々理由はあるけどここでいう「ダウンロード」は 閉鎖前のサイトをダウンロードしてローカルで閲覧したりとかそーゆー・・・ まるごとダウンロードと書いてあっても、swfの取り込みは簡単でないね。 swf取り込んでも、ページに配置されてなかったりとか、、。 みんなどうしてんの?
そんなの糞サイトだと罵る ダウンロードするしないに限らずね
htmlとswfは関連付けたままで落としたいのだが、、 無理なのかな? ところで、ここにいるやつらはどんなサイトを落としているの?
それなら巡集はどうよ 単純な作りのものなら大抵のものは落とせるはず
丸ごと落としたいサイトがめっきり減ったのが ソフトをあまり詳しく調べなくなった大きな要因だな(苦笑
巡集でJUGEMのブログを保存してみたんですが、 http://****.jugem.jp/ では最初のページしか保存されず、カテゴリごとに保存しても コメントやその他のリンクを開くと「ページを表示できません」になってしまいます。 丸ごと保存するには何か設定が必要なんでしょうか? あと、ブログのDLは普通のサイト以上に鯖に負担がかかるので 頻繁にダウンするのはやめたほうがいいかも
なんどもすまぬ ×・取得設定でクエリー(ファイル・HTML両方)にチェック ○・取得設定でクエリー(ファイル・HTML両方)にチェックを追加
>>82-84 ありがとうございます! 今DL中です。時間かかりそうですが、試行錯誤してみます。 >>49 :名無しさん@お腹いっぱい。 :2007/05/11(金) 21:12:46 ID:deAEqze90 HPやページの更新があったら自動で落としてくれて、 名前がかち合ったら古いほうのファイルをリネームしてくれるというか世代管理してくれるソフトってある? 同じく同意 しかし埋め込み動画や細工のかかった音楽と違って 一気にダウンロードしてやろうと思うサイトがぼこぼこできるわけじゃないというのが このスレの盛り上がらない原因かも 自分も落とす目的サイトを失ったまま腐らせてるソフトがいくつも…
前におまえら何落としてるんだ?と聞いた奴がいたけど 俺はネット小説サイトをダウンしてる 小説は読むのに時間がかかるからどうしてもネットに繋ぎっぱなしになるけど そゆのはなんだか怖いので、一気に落として好きなときに読む
うんにゃ。ブロードバンドですよ ネットに繋ぎっぱなしが嫌いなだけ
>>91 常時接続なのに、わざわざルータとかモデムの電源切ってる、って事? 30分以上ネットに接続してないと自動で切れるようにルーターの設定してる どのルーターにもそういう機能あるだろ? いちいち設定画面を呼び出して切るのなんて面倒なことはしないよ
常時ファイルの受け渡しをしている我が家のPCルーターでは(ry
自動でやるにしても、一々切る意味がサッパリ分からん。
Windowsはセキュリティホールの塊だから繋ぎっ放しでなんか進入されたら嫌 かといって他のOSだと仕事にならんし
animeEDENで使えるダウンロードするソフトとか知りませんか???? フラッシュゲットは使えませんでした。よろしければ教えて下さい。
weboxみたいな糞じゃなくて もっとまともなの無い?
俺も 有料でもいいから 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい…
> 使い勝手が良くて(これ重要)、かつまともに動くものが欲しい… define "使い勝手が良く" define "まともに動く"
フリーはGetHTMLと巡集とWeBoXがあれば事足りる
やっぱ「このサイトのあれはどう落とすんですか?」みたいな音楽や動画を落とす質問も あまりこないからこのスレ流行らないのかな
>>82 81じゃないですが その方法で1.71Aで試してもHTMLとして取得できません。 _day=20051015 こんなかんじの拡張子のないファイルがダウンロードされてしまいます。 巡集ではむりなのでしょうか。 送信ミス >>107 見れないわけじゃないんでしょ? 巡集、設定も簡単で良いんだけど、サイトによっては固まる事があるんで もう少し安定性が欲しいね。
>>112 いや、WebAutoだと問題無く落ちて来るんでソフト側の問題だと思う 今までの経験だと、フィルタ設定が邪魔をしていることがあった。
>>166 問題が起きてる箇所を晒さなきゃ、他の環境でも同じ問題が起きるのか、 解決方法があるのか、って事が調べようがないと思うんだが 試しにデフォ設定で仕掛けてみたけど No Responseのファイルが多いなあ 負荷がかかると弾くようになってるとか?
>>120 検証thx! やっぱり他の環境でも問題あるみたいですね しかし、WebAutoだと上手く行くのは何か処理が違うのか… 出来れば巡集1本に絞りたいんだけど、しばらくは2本立てで行くしかないかな Flashの多重構造のページは、どうやっても落とせないのかな。 Flashの中に絶対パスが入ってると、どうやってもローカルだけでは無理だよね…
メンテが行われてるやつで、まともな丸ごと取り込みソフトプリーズ
エロサイトのさ、動画だけを勝手にダウンロードしてくれるソフトある?
W-ZERO3 esで50くらいRSSに登録してあるブログの未読記事をサクサク読みたいと思っています。(速度は×2です。) まず母艦の巡集でDLしたものをmobisyncで同期して読もうと試みたのですが、 巡集でDL時に差分のみDLができない。 更新分だけ読みたいのに全部DL⇒全部同期 その結果、データ同期に非常に時間がかかる フォルダ階層が複雑で見難い ということで、上記問題をクリアしたダウンローダーはありますでしょうか。有償でも構いません。
今、まともなのを有料でもいいから作ったら売れるはず もう3種類ぐらいのツールをあれこれ使い倒してやっと そこそこダウンロード出来るってのはいやすぎるwww
> 今、まともなのを有料でもいいから作ったら売れるはず その「まともなの」の要件を定義してくれれば作ってやるぜ。
巡集がメタタグで巡回拒否するのをとっぱらって ブログDLの機能を充実させてくれたら最強だと思うんだけどな 作者はまだ株にはまってんの?
Ctrlキー押しながらってやつ? METAタグを読まないことによる弊害があるってことだけど そこんところはどうなの?
「まともなの」が具体的には言えないただの口先野郎ってことじゃね? そういう俺もこの手のソフトは何種類も入れてるがなーw
まあ、定義が出てきたところで釣り宣言する予定ではあった。
後出しの釣り宣言は寒いっすよ先輩 まあ日本はこの手のソフトが無料ですばらしい物がゴロゴロ転がってるから 使い分けなんなりくらいすればと
>>139 >「まともなの」が具体的には言えないただの口先野郎ってことじゃね? > >そういう俺もこの手のソフトは何種類も入れてるがなーw かわいそうにw Jugem取り込みはどれが適してるの? 巡集は正常に取得できないので抜きで
ブログか…とりあえず取り込みたいページ挙げてみたら?(相手には迷惑だろうけど) 正直取りに行く興味はわかない
31 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/03/12(月) 09:08:50 ID:totqC4Tr0 >Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、 >サイト運営者の意向を尊重し、安全が確認されている場合以外は実行しないでください。 これって現バージョンでも有効なん?
606 :名無しさん@お腹いっぱい。 :05/02/25 17:11:33 ID:bGYEGCtk >>181 Ctrlキーを押しながらダウンロードを開始することで回避することも可能ですが、 ~ これ回避できなくなっていませんか? 612 :名無しさん@お腹いっぱい。 :sage :05/02/26 16:06:17 ID:kfZ3ja4M >>606 Ctrlキー押しながらで回避できるのはrobots.txtによる巡回拒否 METAタグによる巡回拒否は設定の「METAタグを読まない」で回避 613 :名無しさん@お腹いっぱい。 :05/02/26 16:37:38 ID:4hlizvq6 >>612 ありが屯 >METAタグによる巡回拒否は設定の「METAタグを読まない」で回避 これでMeta読み込まないことによる副作用みたいなのはないですよね? 614 :名無しさん@お腹いっぱい。 :sage :05/02/27 00:47:19 ID:G9lGsa9x 当然ある。どこまで影響するかはMETAタグの内容次第。 ここは>>125 みたいなソフトの話ではないの? ページを丸ごと保存する場合だけの話? オカンに「エロ動画とかエロ画像を根こそぎDLしといて」って頼め。
しかし、ダウンロードソフトって、いつからこんなに派手な行動をするようになったの? ダウンロードできるものの上にポインターをおくと、 アイコンが立ち上がり、それをクリックすると、ダウンロードが始まるんだよね。 YouTubeなんかにはいって動画を見ていると、その誘うようなアイコンが わずらわしくなってくる。ちなみにインストールしたとき、確かスタートアップに いれるかどうか選択画面があったけど、スタートアップにはいれていない。 それなのに、常駐しているみたいに勝手にたちあがる。 ダウンオタにはたまらなく魅力的なソフトだろ。 ちなみにぼくがいま使っているのはorbitだけど、ほかのもみんな同じ機能を持っていると思うよ。
phpで書かれているサイトで気付いたんだけど、 phpそのものはルートディレクトリに置かれているように見えるけど、 画像の相対参照を見たら、実はもう1個下の階層で動いていた scriptで動的にリンク先を指定してみたりとか、落としにくいサイトが増えてきたなあ
無くなってるね 移転の告知とかも見た覚えがないけど
株日記も消えてる・・・。 全然、金増えないから株辞める、といいつつ 何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。
>>163 ヘルプのページのミラーってあるの? 親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz 巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど 変更が必要な箇所はオプションの項目を見ればわかるはず
サイトのヘルプはver1.6までしかなかったような気がしたけど。 俺、最新版はヘルプ見ないで使ってたよ。
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら これいらないだろうな、と思うファイルも山ほど落ちてきた 月別のアーカイブを指定するだけで十分だったか
巡集みたいにJavascriptを辿ってくれるソフトはないものか
>>175 _gu Web Auto(シェアウェア) よくみたら開発停止してるソフトじゃないか 要望を出せないなら意味がないorz 現役でがんばってるソフトはないものか
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。 サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。 (設定がちゃんとできていないのかも) 何が原因なのでしょうか。 もし、これがクリアできたら画像をみんなにあげてもかまいません。 サイトはここです。 http://www.g-area.org/pgmain.htm よろしくお願いします。 巡集は環境変数のUserAgentを自由に変えられるけど これを今使ってるブラウザと同じにするにはどうすればいいですか 具体的に書くと Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322) にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL で途中でぶち切れてちゃうんです
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな それでも無理なら、Proxomitron経由にしちゃうとか
できました! 試しに風呂敷確認君で巡集を使ってみたら chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました ありがとうございました>>186 どうでもいいことですがちょと訂正 ○落ちてきたchk_proxy3.cgiというファイルに
落とせないのはたぶん↓これのせい >ver 1.57 (2004/10/27) >* 巡回が禁止されているサイトは辿れない仕様に変更。 取得設定のHTMLのタグを読まないにチェックを入れればいいはず ちなみに1.56なら拒否されてもデフォ設定で落とせる
>>191 ほんとだ、できました どうもありがとうございます ページURLと、階層を指定するだけで ただ単純にページのデータを落としてくれるのは何になりますか 難しい設定をしないとまともに動いてくれないものばかりで困ってます
すいません 不足してました ページとしての体裁を保ってです これまで何を使っても ただ欲しいURLを入力しただけでも 繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・
こちらはGUI版でオマケに7.12.0という古いバージョンなので >>198 とは関係ないかもしれないけど、参考程度に。 経験的にGetHTMLWはチャンクのデコード周りにバグがある。 チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が たまにファイル末尾にくっついていることがあるよ。(かなり異常) その分途中のどこかが(時に数百バイトも)欠けちゃってたり。 HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ (これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は GetHTML(W)では取得しないのが無難。俺の経験則。 うはw 試しにGetHTMLW ver.7.12.0で>>198 のページを取得してみたらこちらでも再現したw HTTP/1.1クライアントを作るにしても、持続的接続ならともかく チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。 すっごい詳しい説明をありがとう! よそでも再現したってことである意味一安心^^ そんなデカいバグがあるなんて知らなかったよー
久しぶりに閉鎖するブログ保存するために巡集起動した 丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00 サムネイルがたくさん並んでいるサイト上で、 サムネイルの先にある本画像だけをスマートにごっそり ダウンロードできるツールを探しています。 このスレの達人たちなら、きっとなんらかの知恵を拝借できると 思い、おもいきって質問させていただきました。 どなたか良いアドバイスをお願いします。 84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0 ダウンローダー雨 http://downloader.sakura.ne.jp/dlame.htm 85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00 >>84 おぉ、こういった便利なツールがあったんですね。 助かりました。本当にどうもありがとうございました こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな? やっぱりいちいちURL作成しないと駄目ですか? 雨のウィンドウにタブをドラッグすればページ内全取得できるよ IE6ならアドレスバー右のアイコンドラッグでもいい
巡集の取得設定で「クエリー」というのはチェックを入れることにより どのファイルがダウンロードされるのでしょうか? クエリー データベースからデータを取り出すためのフォーマット と意味を調べたのですが、いまいちピンと来ません
&や=で区切られてるURLをDLするんじゃないかと
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。 何か対応策はあるでしょうか?
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを 入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。 1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加 2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加 ↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。 ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ 海外では ~ ってあまり使われないのか
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン
巡集でinternet archiveを取り込むことができてる人いますか? フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの ですが2階層以上取り込めません。別の方も似たような質問している方 いましたが設定のコツがあればご教示いただきたく存じます。 何卒よろしくお願いします。
>2階層以上取り込めません リンクが繋がってないだけじゃないのかねえ 設定はそのサイトの構成によって違うのでこうすればおkというのはない
219です。 mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv このURLはどう見つければよいのですか?
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
初心者にお勧めの物ってどれになりますか? weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。 いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
準州の作者はいいセンスしてたよなあ 俺がロックフェラーならパトロンになってやるんだが
>>231 巡集使ってみました。gethtmlwよりわかりやすいです。 URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか? readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか? gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて 中身を「フィルタ」で検索してみるがよろし
>>234 gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが 巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。 >>225 レスありがとうございます。 右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ されているという意味だと思っていました。 WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの ですが・・・ お手数お掛けしました。 ありがとうございます。 >>235 ちょっと勘違いしてしまった。これは失礼。 巡集だと、そう難しいものでもないとは思うけども。 具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。 巡集でarchiveを保存しようとするとエラーになるんだけど これはどうしようもないの? それとも他のならできる?
http://mayura.jp/blog/ このblogがうまく取り込めない。 顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php にリンクされているのが原因だと思うんだけれど。 うまい方法は無いかな? Super Capture ってなくなっちゃったんですか? すごく便利だったのに…。 どこかにダウンロードできるとこ、ないですかね?
>>241 ググレカレー。 落とせるところがちらほらあるジャマイカ。 取り込みソフトってそんなに便利なのかね。 というより、そんなに沢山取り込んでなんか得するのか? よくわからん。
>>244 君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。 閉鎖したお気に入りサイトを記念に残しておきたいとか、 オフライン環境でも活用したい情報満載だとか、 日替わりのエロ画像を残さずコレクションしたいとか、 世の中には君と価値観の違う人がたくさんいるってことだよ。 >>243 巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして http://www.gymfan.de/1999/bg1999_1.html の取得を試してみたら ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん? web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。 なんなら -screen くっつけて検索汁。
>>245 サンキュ。設定いじったら巡集でできた。 irvineでも巡集でもURLを直接指定すればええやん
すみません、質問なのです ダウンロードソフトって目的のサイトがweb上に上げているものすべて、 .htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか? 英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
普通にダウンロ-ドした後htmlのソースとにらめっこすればよいのではなかろうか
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。 「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
2ちゃんで ある板のスレを全部保存したいのですが なんかいいソフトはありませんか?
2ちゃんで ある板のスレを全部保存したいのですが なんかいいソフトはありませんか?
>>268 2ch専ブラはログを常に保存しているが、これじゃダメなのか? >>272 どうしてもhtmlで保存したいんです 専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが その方法だとスレッドタイトルがファイルの名前に出てこないので 開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです 端的に言うと規制の対象になるよ おそらく保存どころか読みさえできなくなると思う
>>273 設定でスレッドタイトル=ファイル名は可能 >>273 FirefoxだったらScrapBookをすすめるんだがな。 最近「丸ごと取り込み」したいソフトに特に会わないなあ ソフトの更新がほとんどないのもそのせいかも テンプレのソフトを見ても下の海外のものしか更新がない
website explorer使ってる人俺以外にもいるのかな
Firefox使いの俺はFownThemAll!とScrapBookだ。
ダウンロードソフトはダウンロード板の管轄じゃないの?
スレ違い失礼しました。 ご丁寧に教えていただきありがとうございました。
gzipで送信されるページに対応した取り込みソフトはございませんか?
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね こういうソフトもそろそろ時代遅れなのかしら…
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降 保存ができなくなるんですが・・・ 誰か解決策わかる方がいたらお願いします。 保存先はブログです。
>>288 No ResponseになるURLをフィルタさせる もしくはもう1個巡集を起動してダウンロード エラーが出るたびに繰り返せば全て保存出来る ような覚えがある >>289 こんな早くレスもらえると思ってませんでした。 巡集2個で回してみたところ、しばらくはダウンロードするんですが やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を 繰り返さなければならなくなりました・・・ 保存先のブログはシーサーです。 なにか対象の指定の仕方に問題があるような気がする。
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ 扱いでまとめてダウンロードできるソフトはありませんか?
weboxは、保存した元のサイトページが更新されると なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています 更新されないように設定できる、HP取り込みソフトはありませんか? フリーでもシェアでもかまいません。
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま で来ないのですが、何かチェックすべきところはありますか? UAC は切っていて、管理者として実行し、 Windows ファイアウォールで除外ソフトにしてもだめでした。
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
他人にきちんと説明出来ないことと 自力で解決出来ないことはコインの両面である
ちょw たとえば、 ブログタイトルhogeというのがあって hogeの9月8日の日記のタイトル名がhoge-hageだとしたら 現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
ファイル名を変えたらリンクが正しく動作しなくなるだろ…
巡集の作者、もしかして株で死んじゃったとか・・・?
巡集 Teleport Pro(俺はUltra) この2本立てで困ったことないな 後者に金を払う気があるかは本人次第
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか? 白紙ページを延々とダウンロードするので鯖にも悪いし
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。 料理レシピサイトを落としたいんだけど以前落とした時は 検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない? ちなみにエキサイトのレシピサイトを落としたい。
>273 亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
こんなソフトありませんか?スレから来ました。 fc2などの画像サーバーが独立したWebサイトにも対応した 丸ごととりこみ保存するソフトを探しています。 現在は WeBoXをつかっているのですが、 fc2のブログなどでは、画像サーバーが別サーバーなので 同じブログ内でもリンク先画像などが取り込むことができません。 このような状況に対応できるダウンローダーはありませんでしょうか? コマンドラインで使う類のソフトでもかまいません。
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net http://www.oshiete-kun.net/archives/2008/02/getleft.html 外部リンクを1リンクだけたどって保存できればよいのか?ということで、 こちらのソフトを使ってみているのですが、 下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。 困ってしまいました・・・。 could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory while executing "file size $fileName" (procedure "DownloadLinks" line 39) invoked from within "DownloadLinks $urlList $referer $level" (procedure "Descargar::ControlDownloading" line 21) invoked from within "Descargar::ControlDownloading $requestedUrl 1" (procedure "StartDownload" line 76) invoked from within "StartDownload $requestedUrl" (procedure "AutomaticDownload" line 21) invoked from within "AutomaticDownload [mainWin::UrlListSelectedUrl]" invoked from within ".extFrame.iconFrame.left.start invoke " invoked from within ".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } " (command bound to event) wgetで試行錯誤してみたらうまくいきました。 wgetで一旦htmlのみを取得し、 Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの) urls = [] Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file| puts file urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq end puts urls.uniq 以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。 wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/ --convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、 あと、fc2は.htmlとなっていてもどうやら動的生成なようで カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。 (一回やらかしました) wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・ この辺、Unix系の板で聞いてみます。
>>313 横レスすみません。レスとても参考になりました。 wgetをwinXPで使いたいのですが DLできるところ教えてください。 >>318 ありがとうございます!これでやってみます。 パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
巡集ってDLしたファイルを消す方法って フォルダ排除と設定ファイル排除しかない?
>>320 パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。 ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い 認証必要なサイトのDLのためにいろいろ試したので…。 1. Website Explorer ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。 認証も手軽にできて、細かい設定無しにDLしやすかったのですが、 膨大なデータ(100000ファイル超)のサイトの場合、 解析時のキャッシュが増えるにつれて、かなり処理が重くなる。 負けずに数日動かしていたのですが、 私が馬鹿やってエラー落ちしたので別ソフトを探しました。 2. WinHTTrack 複数URL指定ができていい感じ? いくつかのサイトを落とすときに利用して気に入った。 しかし、認証に弱い…。 認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。 どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、 charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
3.WeBoX DLを試しても一部のファイルしか落ちてこなくて使い物にならない。 恐らく、私が使い方を理解してないのが原因orz 4. Teleport Pro レビューが少ないのは、日本語化されてないし、有料だからですかね…? サイトの認証は簡単に成功しました。 DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、 ちょいちょい触ってるうちに理解しました。 結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。 どうでもいいですが、DLしたサイトは東進 過去問データベースです。
報告どうも よく分からないけど海外製のが一番うまくいったりする場合もあるのね
追記 Teleport Proは65530ファイルでDLを打ち切る様子。
FirefoxのScrapBookみたいに すんなりスクラップできるソフトってありますか? まるごとじゃなくてもいいんです・・・・
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか? パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで… 説明わかりにくくてすいません
Firefoxのツールバー で使えて 埋め込み動画が落せるのって ありませんか?
HTTrackを使っているんですが、FC2のサイトが保存出来ません。 2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。 デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。 上手く保存する方法は無いでしょうか?
「波乗野郎」が、立ち上げた途端に異常終了する。 何故だ。 今までは動いていたのに。 機械のOSは、XPホームエディション。 予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、 現在、普通に動作している。 XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。 沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、 使い勝手が良いソフトなんで、捨てたくないんだよーん。
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。 ゲームの攻略Wikiとかを人がいない時間に保存して 混んでる時間は保存してる方を見たいんだけどな
動的なWikiは根本的に保存に無理あるんじゃないかなあ 保存できるソフトを聞いたことがない
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた 特にゲーム攻略のWikiとかはよく消えてるから困る
FirefoxのScrapbookという拡張機能を使って、 ファイル一覧のページで一階層のみ保存、とか。
Gethtmlについての質問です。 オプションの -f とはどのような機能なのでしょうか? 説明書ファイル(gethtml.txt)には "-f Filename" Filename of / terminated URL と書いてあるのですが意味がよくわかりません。 DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、 そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
>>346 gethtml.txt より > ・"-f Filename" > / で終わっている URL の WebPage データのファイル名を指定します。 > 例えば、URL が > http://www2s.biglobe.ne.jp/ ~pockey/ > の場合、得られたデータをどんな名前で保存すればよいか分かりません。 > 通常の場合、 > www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに > よって違い(MS のサーバは index.htm等)ますので、ここで指定します。 > index.html にしておくのが無難でしょう。デフォルトは index.html。 > 例) -f index.htm >>347 大変申し訳ありません!見逃していました。 重ねてありがとうございます。 >>331 そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど) アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか? それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか? また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。 紹介されている一通りのダウンローダを試しましたが、うまくいきません。 http://www.gamebanshee.com/neverwinternights/ うまく取れないところは、このページの左のリストにある EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。 更にクリックすると、ページの中央部に一覧表示されます。 これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、 ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。 宜しくお願いします。 基本的にHTMLをみて、ダウンローダーの特性を理解したら なんとでもなるよ。 wgetなんかでもcssの中で@import とかは無視してくれちゃったり、 hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、 実際の本物のホスト名を含む絶対アドレスになったいたり こういうのがあるとサイトが正常に表示できない。 だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば よほどの動的サイトでない限りはまるごとダウンロードいける
どなたか巡集でshinobi.jpの広告削除設定を ご存知の方どうかご指南下さい 色々設定してみたけど全然上手くいきません…
>>356 様 ご回答ありがとうございます。 スタイルシートについて、いろいろと調べたのですが、 リンク元のウィンドウで <a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">....... で新しいウインドウに画像のURLを渡し、 新しいウィンドウで theShot = location.search.substring(1, location.search.length); document.write('<img src=' + theShot + '>') のように画像のURLを変数(上記の場合、theShot)に代入しているため、 URLがHTMLのソースに直接現れないような構造になっています。 このような場合はフィルタではどうしようもないと思うのですが、 何か良い手段はあるのでしょうか? まあこれで正確にHTMLが解析できれば誰も苦労しない罠 当然俺は分かりません
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
>>364 この世の全ての知識を手に入れようとゆうのかw 時間がかかって当然だろ、しかも正しい保障のない知識を ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
>>371 そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか? firefoxのscrapbookでのんびりと保存するのがベターかな
>>295 半年以上前の投稿だが、俺も同じ現象になった。 んで解決方法がわかった。DEP のセーフリストに GetHTMLW.exe を登録すれば、おk。 >>373 回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ >>369-371 検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw CSS内の画像リンクも辿って保存してくれるソフトありますか? GetHTMLWでは落としてくれませんでした。 JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。 たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。 私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、 ページによっては誤動作するという問題点があります。 scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
すみませんが、質問です。 リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー ドツールはありませんか? 具体例を出しますと、 http://www6.airnet.ne.jp/manyo/xml/ このページから、以下のページにリンクが張られています。 http://www6.airnet.ne.jp/manyo/xml/xslt/home.html この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ http://www6.airnet.ne.jp/manyo/xml/xslt/ も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの 対象とする、という機能を持つツールを探しているのです。 このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して いて、通常のダウンロードツールだとXSLTファイルを取得することができませ ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。 今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定 し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名 を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー ド行ないました。 しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ について自動的に行なってくれるツールがないかと思ったのです。 この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、 ある程度解決すると思うのですが、そういうツールはないでしょうか? CGIページをきちんと保存、再生できるソフトないの? 巡集だと再生するときカオスになる・・・
じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。 UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
t t p : / / g . e - h e n t a i . o r g / ここ取り込める? 画像だけでもいいんだけど 向こうに知られるとまずいから アドレスは切った
Refererは理解してる、が 取り込みソフト拒否されてるっぽいんだよねここ
PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
とりあえずyahooの質問集でもクグッて質問しような? ImageGeter使ってみな サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる 使い方はyahoo見ろよ
ああ、それと。 場所によっては対ダウンロードソフトを敷いてるところもあるから、 リンク追跡は1個にしときなよ。 下手するとBANされて8時間待機とかなけるから。 設定は登録したリンクから変えられる。
巡集って 例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね? そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
手作業でリネーム 取り込む先のフォルダの名前を指定する 好きなのを選べ
波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。 フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
ブログの画像だけを取り込むソフトないですか? web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと どっからきたかわからない変な画像まで取り込んでしまってうまくいきません よろしくお願いします
>>405 追記。あと、広告なら大抵gifだからgifは外すとか、 わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。 web image hunterは検出力高いから、フィルタは必須。 javascript追跡に対応してるソフトってありますか?
imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。 gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、 ver8.0.0ではできなくなっています。 prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
> imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。 ページをPOSTメソッドで取得しているんだな。 設定の「POSTmethodも保存する」をチェック。 これで無理なら諦める。
>>411 >設定の「POSTmethodも保存する」をチェック。 この設定で希望どおりの動作になりました。ありがとうございます prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、 「拡張子がcgiの単なるHTML」という扱いではないようですね まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな 紙copiで保存して余計な部分を(ry →サイズの大きなページで紙copiがザ・ワールド BullzipやPrimoでPDFにして余計な部(ry →サイズの大きな(ryで一般保護法ナントカ mhtで保存しておいて余計な部分を手動で削除する方法 →mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry Wordにコピー&ペーストして(ry →レイアウトが原形を留めてくれない Proxomitronで広告をフィルタリング →フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト →オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
>>414 広告アドレスはアカウントID指定しないで、ワイルドカード指定してる? 広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、 ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。 巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。 どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。 それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。 ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
巡集更新されてるな ver 1.7.2 (2009/08/30) * 通信エラーで途中で止まるバグを修正。 * 追加ダウンロードで除外されたファイルもダウンロード可能に。 * 許可URLと除外URLの細かい動作不良を修正。 しかし、作者が株で大損した的なこと書いて すぐサイト閉鎖したんだっけか なんかあったのかと当時心配になってたな
>>418 そのリンク先のベクターが一時的に消えてたんだよ。 ついに巡集のURLフィルタの除外指定が想定どおりになったぞ 以前は許可でパスしてると除外をスルーされていたからな おかげでため込んだ設定ファイルを一部書き直すことになったが
巡集素晴らしいソフトだけど、 辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念 それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり ダイアログの大きさを拡縮できると俺だけ幸せ
>>401 >巡集って例えば今日ダウンロードしたページを >明日ダウンロードしたら上書きされてしまいますよね? >そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか? 俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。 更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。 日付ごとにページを自動的に分けてくれるという意味では、 Beeが希望に近いのだが(>>401 氏はお試しあれ)、 俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。 Beeだと、なんだか、設定が上手くいかん。 一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、 定期的な自動取得とかは出来ても、 いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。 良いソフトは無いかしら。 >>425 に追記 「URLは一定だけど中身が変わるファイルの、自動的な定期保存」が希望といっても良い。 401、426に同じく。 425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。 需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。 がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
Offline Explorer Ver4の日本語化をやり始めたんだけど 気が向いたらランゲージファイル公開するわ
Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ 半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
それを落とそうとしたら、avast がトロイ発見したのだけど・・・ 感染先は Bee.exe で実行ファイル
>>432 誤検知だから大丈夫 うちはAviraだけど、beeServer_start.exe ってのも誤検知した。 巡集のソート機能にはバグがあるのかな? ver1.58あたりまでだと全ての行がソートされるけど 1.59以降は行が多いと途中までの行しか並び替えてくれない
誤検知なのか。 トンクス でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。 あとで使ってみよう。
正露丸の方がいい!正露丸は必需品これ絶対ね!基地外漏りたぽ全部寄越せや
やっぱり再三出てる話題だったか ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね 頻繁に参照するんでどうにかしたいんだけど…
wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然 index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る でも保存したデータを取り込みソフトから開く時にエラー出してくれる ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。 でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
ソース見てCSSとか足らないファイル無いか確かめて見れ
WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。 今までオートパイロットで WebAuto 以上のものにあったことが無い
忍者ブログがちゃんと取り込めるお勧めってある? 表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが 取り込んだHTML起動させても画像出ないんだ。 とりあえず、巡集とWeBoXは使ったけどだめだったorz
他の所で聞いてみましたが、反応がなかったので。 javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか? webox/紙copiでは、いまいち上手に取り込めませんでした。 何かご存知でしたら、教えてください。
gethtmlwでのことなのですけれども 以前まで順調に落とせてたサイトを 今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした どうやったら良いんでしょうか? 対象サイトはup.pandoravote.netっていうアップロダサイトです
なんかいろいろ調べてたんですが robots.txtに User-agent: * Disallow: / って書いてあるので これを読んだgethtmlwが拒否されてると認識してしまう のでrobots.txtだけ落ちてきて取得終了となる でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた robots.txtに従って巡回するしないとゆう機能は gethtmlw.verを読むと7.11.0からのようだ で いいのかなぁ。。。
Proxomitron を使っているのなら、User-Agent を書き換えるよりも いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。 どっちみち User-Agent の書き換えは推奨するけど。 デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、 以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
>>450 もともと盲点は見えないから突かれても問題ない twitterのプロフ検索サイトや WinnyやShareのハッシュサイトの 情報を丸ごとってのもできるの?
wgetでサイトまるごと採ろうとしてるけど 画像データの途中でwgetが止まるというか HTTPのレスポンスがない・・・ どうすれば・・・
scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
moe.imouto.org終了のお知らせか・・・
>>443 の書き込み見てWebAutoを使ってみたけど サーバーにアップされた時間で落とせるぽいな 他のツールでも可能ぽい説明があるソフトは何故か 設定してもうちの環境じゃダウンロードした時間になるから助かった 巡集の1.7.1A→1.7.2のバージョンアップで、 URLフィルタの許可URLよりも除外URLの方が優先されるようになって、 ダウンロードできなくなったサイトがあるんだけど、 何かいい方法ってある?
何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
ローカルに保存したwikiを txtで開いてしこしこしながら勉強しろよっていう ググルさんの優しさ
更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう Firefoxのアドオンのほうが幸せになれるのかもしれんな GetHTMLwの作者はどうなったのですが 最近、更新がないようですが あげ
今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。 pagedownで完全に取り込めなかった、ページも取り込めたし。 ブログなんか保存する場合だと、いらないものは拒否するフィルターより いる物を追加してくフィルターの方がはるかに便利だね。 他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
最近「~けど~けど」「~ので~ので」「~だから~だから」みたくたった1文の構成すら出来ない奴が増えたな
i.aspの付いているaspで生成されている(?)携帯サイト (具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは ありますか? 既存のソフトを試してみたのですが、a対応しているものはなかなか ないみたいで・・・。
魔法のiらんどなら巡集でフィルタ設定して取ってる 目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
情報をありがとうございます。 巡集を使わせていただきました。 ダウンロードそのものはできていて、保存されたファイルをテキストファイル などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。 自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの 相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを ダウンロードする際にもう少しよいやり方は可能でしょうか? あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。 教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば 教えていただけないでしょうか?
自分の場合Firefox、Opera辺りならD&Dすれば 普通にhtmlの状態で見られるんでトップページをブックマークしてる それ以外やったことないしあまり詳しくもないからちょっとわからない ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は 除外していかないといつまで経っても終わらない
ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
返答が遅くなってしまい申し訳ありません。 余計なファイルがダウンロードされてしまって終わらないという問題は、 フィルタの設定をきっちりと行うと解決されました。 aspファイルの表示についてですが、いろいろ試してみたもののどうも うまくいかないので、ファイルを一括でリネームして、中身のリンクを 書いてある部分についても一括で置換、という方向でやってみようと 思います。ありがとうございました。
頻繁にファイルを直接選択してブラウザで見たいというのでなければ スタートページだけhtmlに拡張子を変えたコピーを作ればいい
>>473 その方法だと、スタートページは正しく表示されるのですが、 そこからリンクしているそれぞれのページを見に行くときに、 結局同じ問題が生じて正しく表示されなくなってしまうみたいです。 それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、 ブラウザ側でhtmlとして扱うような設定するとか Firefoxなら気にしないでよかった気もする
>>475 Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する ことができますね。 Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、 要するに具体的にどの設定をいじれば表示できるのかということを説明 してあるサイトなどがあまりなくてどうも要領がわからなかったです。 サーバーをたてる件については、IIS(?)というのをインストールすると ローカルでも見れるようになる、ということなので途中まではやってみたの ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と 中身を置換してしまえばよいのではないか、と思いました。 当面は、これを見る必要があるときだけFirefoxを使って(といっても ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは 存在するので当面はそれを普通に見ればよいのですが)、他の設定などで Internet Explorerでも見れるようにする方法についてはもう一度少しずつ 試してみたいと思います。ありがとうございました。 winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった 途中から再開するんだけど、レジュームモードだと もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで やってしまうんだけど、これまでやった場所は更新させないで 取り込む方法ってある?
>>476 俺はIE詳しくないから検索の手助けになりそうな情報だけ ドキュメントをどう解釈させるかはMIMEという設定がある ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。 .aspファイルはhtmlとして開いてね、というような指定 「関連付け MIME」なんかでググったらでてこないかな ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。 でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。 誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。 CompleteGetterのRFunc:1とかRFunc:2って何ですか?
フレーム付のページを一括で保存できるソフトってありますか?
そういう場合はXaxonのネットレコーダーしかないな。
できるよ よく使われてるjava scriptだろ
フォーラム系を保存したいのですが 良いソフトありますか?
>>488 winhttrackみたいなミラーソフトでは、無理だったのだけれど どうすれば、保存できるようになるの? 決定的なソフトは現れないかねえ 新しいソフトですら現れていないわけだが
龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから してとりこめない。 どんなソフトを使えば取り込めますか?
巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか? いろいろ設定を変えてみたけれど駄目でした。
winhttrackというサイトミラーソフトを使用しています。 http://www.httrack.com/ これです。 こちらのソフトは短時間の使用では全く問題ないのですが、 ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう 場合トラブルが発生します。 Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、 そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。 まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。 また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、 トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、 その状態からタッチパッドをクリック、叩いても反応しなくなります。 以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。 原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか? >>495 ですが、パソコンを使用しているときには、そういった状態になりにくく 使用せず放置すると、CHKDSKが必要な状態になりやすくなります なぜなんでしょうか? 巡集のように絶対パスを相対パスに(http:// ~index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある? それか、同等の機能を持ったソフトとか…。 携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。 巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。 調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。 Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか? NHKの番組表、保存してるんですが。丸2日かかる wgetを使ったほうが取り込みは速いとは書かれていましたが Httrackのように、しっかり取り込みできますか NHKの番組表程度だったら、できるかな?
2ちゃんねるのスレッドの保存には何を使えばいいでしょうか? 今は、好きなスレッドがあったら ファイル>名前を付けて保存 で保存してますが、これでもいいんですかね? この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか とりあえずWebページHTMLのみというのを選んでるんですが
>>504 2ちゃんねる専用ビューアでDATのまま保存をオススメ DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能 普通に読むだけならHTMLだけを保存してもいいと思う MHTMLなら画像とかも一緒に保存してくれる(ないこともある) >>505 2ちゃんねる専用ビューアってフリーソフトみたいなものですか? もう少し詳しくお願いします あと、芸能人のやってるアメブロを保存するには何を使うのがいいですか? 巡集で曜日指定のダウンロードする方法はないでしょうか? あと、引数はどんなものがあるのでしょうか? 適当にやってたら-startで起動と同時に ダウンロードが開始できることだけは確認できました。 よろしくおねがいします。
ちなみに現在は別のツールからキックしています。 巡集自体の設定で実現可能であればそちらにしたいと考えています。
一定時間ごとに自動で巡回してくれる サイトを丸ごと取り込めるフリーソフトないでしょうか?
どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
タイマーで2chの実況スレを ダウンロードできるようなソフトはないでしょうか?
>>519 数年前だったらつかってたかも 今はまったく必要ないけど >>521 どうしてだい? ちんこたたなくなったのか? サンプル専門で収集してる人には便利かな。 根こそぎDLするから見るの疲れるけど。
PC板の総合質問スレで質問したらソフトウエア板でということでした ここでいいんでしょうか すみません どこで聞いたらいいかわからないので RealPlayer SPでYoutubeなどをダウンロードしていますが 「このビデオをダウンロード」のボタンは表示されるし 左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます しかしダウンローダーが出てこないのです RealPlayer Download and Record Plugin for Internet Explorerは有効で 「セキュリティの設定」の「ファイルのダウンロード」も有効です また「 Unable to download 」は表示されません どなたかエロイ人教えてください ちなみにOSはXPでIEは8.0です
フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、 何か良いソフトないでしょうか?
今ならFirefox+Scrapbookあたり ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
一点質問なんですが2つのフォルダーでデータやり取りしているサイトはどのようにすればダウンロードできるでしょうか http:// Aに一覧があり http//Bにデータが保存されている場合。 現在小説家になろうの小説を取り込めないか実施しております。 ご協力お願いします Aにリンクがあるなら、それを辿ればいいだけじゃないの
>>534 丸ごと取り込む場合下位フォルダーしか保存できなくありません? そこはオプションしだいかと思います。ドメインが違うのなら取得対象ドメインとしてBを追加していないのではないでしょうか。
巡集はhttpsで始まるサイトは取り込めない? あとUser-Agentで設定できる文字列の長さが短めに制限されてる 作者様に要望を出したいけど連絡の取りようが
cssファイルの中で指定されている別のcssファイルや画像をすべて取り込めるソフトはありますか?
URLに全角文字が含まれていてもオッケーなソフトってないですか?
巡集でWikiをローカル保存する事は出来た。 出来たけど…レイアウトがまるで再現されてない。 スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。 何か上手い手は無いものか…
それはスタイルシートの再現が出来てないだけだと思うが
2chのある板のスレを全て丸ごと取り込めるダウンロードソフトってありませんかね? 例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。 Website Explorer 波乗野郎 ComGetter64 試したこの中では駄目でした。 外部rリンクをOKにしても駄目です。 正直困っております。 っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ) どのソフトなら http://anago.2ch.net/software/subback.html ここから一階層分だけダウンロードできるんでしょうか 規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
ソースみるとリンク先はIDだけだけど実際には software→test/read.cgi/softwareに書き換えられるみたいだし うまく取得できないのはそのあたりの設定が出来てないからかなあ
atroposってprntscrnキーを設定することはできないの?
gethtmlwで全く取得できないサイトに出会った 割と弾かれてるんだな 余裕で乗り越えたけど
サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。 そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか? OSはwindows7です。 有料、無料どちらでも構いません。
報告 ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
GetHTMLWがCRCか出力先が~と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。 OSはwindows vistaです。
ウェブページをJavascriptごと保存して、さらに更新有無に関係なく チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか? 今はHTTrackを使っていますが差分を履歴と確認したくて…
>>558 HTTrackなら↓みたいな感じで @wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず -www00.atwiki.jp/hogehoge/new -www00.atwiki.jp/hogehoge/editx/*.html -www00.atwiki.jp/hogehoge/diffx/*.html 最大階層最小で試して不要なリンク洗い出すといいよ wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`) 巡集はアドレス長くて書き込みエラー weboxも何故かエラー スクラップブックはリンクが70までしか辿れなくて断念 getHTMLは取り込めたけど取りこぼし大量に出た 他のダウンローダーも.html形式じゃないからか失敗するよー
すみませんgethtmwでフィルタ細かく設定したら携帯サイトも取り込めました 取り込む速度も瞬殺でこのソフトすげえ
>>562 試してみたがHTTrackじゃ無理っぽい Cookie設定すればそのページ自体は拾えるけど 各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね それにリンク先拾えてもflash経由でテキスト表示してるから flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う ネット小説を保存するのには どんなソフトを使ったらいいでしょうか?
wget以外でパス付きのサイトダウンロードするソフトない?
>>561 マジ?教えてお願い。 フォレスト何年もあきらめてたorz GetHTMLWで出来たってこと? Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。 相手方の負担を考えなければ実に快適だな。
IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
>>567 スレ離れてて遅レスになったけどもうできた? >>573 できてないよorz GetHTMLWでいいの? フォレストとりこめたなんてすごいよ よくわかったね atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
wikiを別に移したいのなら htmlソースを取り込んでも意味無いんじゃないか
構造ごとぶっこ抜けるソフトってありませんかね wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
>>574 追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい) gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集 自分の場合 1:サイトの共通URL 0:\.* で取り込めたと思うたぶん >>579 レスありがと やってみるよ できたら報告にきます 報告なければできなかったということで あいつアホだったかとでも思っててくださいw 会員登録が必要なサイトをまるごと取り込みしたいのですが、 weboxを使って、まるごと取り込みしようとすると ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。 それぞれのページを、ページ取り込みすると、 問題なくログインされた状態でのページのhtmlファイルを保存することができます。 数千ページもあるので一つ一つ開いて保存していくのが面倒なので 一括保存したいと考えています。 これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか どうかを知りたいのですが、 リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか? 要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが どうすれば良いでしょうか?
/:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::| l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::| |::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::| ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l ):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l )::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ 1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l `l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l | ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ / ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ ,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!! ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l l l '''''''''''''''''''''''''''''''''''''' ̄l | | ダウンロード&関連動画>> VIDEO wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか?? 後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
あ、CSSファイルを外部から読み込むのか・・・ すいません今から少し勉強してみますw
動的にcssを読み込んでたりとか、 cssの中でさらに別のcssを読んでたりは対応しないから 一度取り込んだ後に追加URLでcssを読み込ませる必要がある
一応できましたw >>591 さんと>>594 さん本当にありがとうございました 追加するのがめんどくさいので、まとめて追加するソフトでも探してきますw >>595 うまくいったみたいで何より CSSのURLはソース見て追いかけるしかないかなあ フォルダ構成が変わるから注意だけど 巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力 にすればまとめて保存できると思う ?? HPタイトル(ログ用)ってフォルダ名を変えるだけですよね? デフォルト設定で何か問題あるのですか??
こんな便利な方法があったのかww 自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw すいません何度も助けていただいてありがとうございます
FC2のダウンロードがしたいです。アップはしてません。 自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど 面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと 思うのですがどうなんでしょうか。教えて下さい。m(_ _)m KSソフトウェアーってとこなんですけど。宜しくお願いします。 http://www.simple-downloader.com/ 最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
Craving Explorerはウイルスらしいよ プログラム終了してもプロセス残ってる
>>603 そうなのかあ。でもデフォルトで残すのはどうもねえ。 気色悪いからFreemakeVideoDownloaderにしたよ。 >>602-603 「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、 それらの現象は発生しなくなるよ。 初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w >>605 確かに調べ方が足りなかったが、インストール時に確認もしないで Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。 >606 インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。 俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
>>607 606は胡散臭いソフトにありがちなデフォでチェックが入っているのを見逃してインストールしただけだよ 普通に回避できる Cravingの作者のページの「今すぐダウンロード」クリックしたら ウイルスバスターに引っかかった。 いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
ウイルスバスターは無いわー 有名なESETに乗り換えを検討したら?
website explorerに代わるものが未だに見つけられん 階層そのまままるごとダウンロードしたいんだよ・・・ おかしな最適化とかして欲しくないんだよ
>>615 website explorer、この前久々に新しいバージョンが出てたよ あと似たようなソフトだと、Cyotek WebCopyが近い感じだと思う こっちは今でも開発中 >>617 詳細設定 > 取得設定 > URLの%を変換しないをON >>619 すまん ONにすればダウンロード自体は出来たから中身までは見てなかったわ とりあえずHTTrackで試してみたがこっちなら落とせると思うよ wikiのダウンロードは相手に負荷かかるから設定に気を付けてね >>620 親切にありがとうございます できれば巡集がいいのですが、無理そうですかね? >>621 巡集で落としたファイルを見た感じ wikiとかの動的なページの取り込みに完全対応していないみたいだから どうにもならないと思う すいませんどこをどう置き換えればいいのか(´・ω・`) ヒント貰えませぬか(´・ω・`)
いやそのままの意味だが >>625 のURLのjiten_v1_2.jsを 巡集のファイルの保存先にあるjiten_v1_2.jsに上書き IEなら見れましたが、Chromeだと駄目ですね ちょい調べてみます
>>629 それはローカルファイルのアクセス許可してないからじゃね Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ "C:\~\chrome.exe" --allow-file-access-from-files できました。・゚・(ノД`)・゚・。 ありがとうございます ありがとうございます ありがとうございます
>>632 そこではためしてないけどfirefoxだったらdown them allってアドオンでできそう あとはDCさくら とか レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。 しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚 保存できる方法はわかったんですけど量が多くて困っているとこなんです
あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
>>632 調べた感じ無理 JavaScriptで表示画像を切り分けてるようだけど 汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず ググったら専用ツールとかRubyスクリプトはあるみたいだから それを利用するぐらいしかない気が htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として パースしてやれば画像URLを取り出すのは難しくないと思う さらにレス付けている方がいるとは思わず、返事遅れてすいません。 おっしゃっていることが難しくよく理解できないんですけど、このへんを見て http://serverkurabe.com/ameblo-to-wp-image/ 大きい画像のURL一覧は作成できました。 それをリンク先のサイトのように、Irvineでダウンロードしても 結局URLのコピーになって画像そのものは落ちてきません。 そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。 画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。 636さんの最後の2行はそのようなことをおっしゃっているんでしょうか? レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、 どうしても自分の望む結果が得られる設定等使い方がわからなかったら すいませんがまた質問させてください。よろしくお願いします。
あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は 落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
さすがに情報後出し教えて君過ぎるので もうこれ以上フォローはしない http://www.dotup.org/uploda/www.dotup.org480696.txt 2~3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず あとは自力で 手動でのURLの抽出方法は以下、>>636 でピンとこないなら読まなくてよい HTTrackで>>632 のURLをとりあえず3階層分落として 秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」 出来たリストの「"imgUrl":」以降に 画像ファイルの相対パスが入ってるので矩形選択等で切り出す 画像のドメインはstat001.ameba.jpなので 相対パスの前にくっつけてURL完成 また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが http://ameblo.jp/ishiharajun/imagelist.html なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での~」以下、 質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。 もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。 スレ汚しみたいになって他の住人さんにも謝ります。 相手が女かもと思って途中までめっちゃ親切なのウケるw
画像ページを開いてから落とすのは出来るけど 画像リストページからリンク先の画像は取れなくね
Irisで何でもできる インテリジェントな処理はケースバイケースで自作 リトライしながら複数スレッドで落としてくれるだけで十分有り難い その部分まで組もうと思うと大変
dcさくらの場合コンテンツ抽出を繰り返せば目的にたどりつく
index.htmlを除外するにはどうしたらいいのでしょうか フィルタ設定しても絶対にトップページをダウンロードしてしまいます
Win8.1でホームページ取り込みをするにはどのそふとがよいですか?
?付きアドレスを正しく、もしくは強制的にローカル参照ファイルとして取り込んでくれるものはもう無理かな。あとjavascript使ってるやつ。 teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。 ?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、 jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、 相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。 複数のツールをサイトごとに使い分けるのがベターかも。
VisualWget使ってみた %E3%81%82~ こういった日本語含むパーセントエンコードされたURLって落とすの不可? 漢字がバグったようなURLになって止まってしまう restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる wget使ってる人どうやってるの ご助言くだされ
こんなところにバグレポ&パッチ書いても仕方ない気はするけど書いとく。 GetHTMLW/GetHTMLのバグ ・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある 原因はNULLポインタへのアクセス。 関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す 可能性があるにもかかわらず、その対処を怠っていたこと。 どうなっているかは次のアドレス/行番号を参照 (GetHTMLW 8.3.0)GetHTMLW.exe 0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D) (GetHTML5.3.1) GetHTML.exe 004089AB-004089BD (実行ファイル上:007FAB-007FBD) (GetHTML5.3.1) hdrlistw.cpp、510-511行 > q = get_extptr(p); > if (*q == '.') { パッチ(変更箇所のみ) (GetHTMLW 8.3.0) 0040FF64 90 NOP 0040FF65 90 NOP 0040FF66 90 NOP 0040FF67 90 NOP 0040FF68 90 NOP 0040FF69 83F8 00 CMP EAX,0 0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1 (exeファイル上では-0x400A00;00F564-00F56Dの範囲) (GetHTML5.3.1の)hdrlistw.cpp、510-511行 q = get_extptr(p); if (q != NULL) {
>>658 とするとこのバグは無いはず。 あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。 (Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね) ------------------------------------- >>657 追記 条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。 1:(拡張子の無い)そのURLのデータを既に取得している 2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が) 3:そのURLから再取得しようとする 4:「取得条件設定」の「E:旧データを保存」が有効になっている で、この時に>>657 で示した既存ファイルのリネームルーチン内でNULLポインタに アクセスする状況になる。 アメブロの保存をしている方がいたら教えて欲しいのですが、 アメブロの保存に向いているソフトはなんでしょうか? 今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに 後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
動的にページが生成されるから、データが大量になるよな
>>657 のパッチ(バイナリ書換えのみ)が別のバグ作ってたことに 今更気づいたので修正済みのパッチ貼っとく (GetHTMLW 8.3.0) 0040FF64 83F8 00 CMP EAX,0 0040FF67 74 38 JE SHORT GETHTMLW.0040FFA1 0040FF69 8A03 MOV AL,BYTE PTR DS:[EBX] 0040FF6B 90 NOP 0040FF6C 90 NOP 0040FF6D 90 NOP (exeファイル上では-0x400A00;00F564-00F56Dの範囲) (GetHTMLW 5.3.1) 004089B4 83F8 00 CMP EAX,0 004089B7 74 38 JE SHORT gethtml.004089F1 004089B9 8A03 MOV AL,BYTE PTR DS:[EBX] 004089BB 90 NOP 004089BC 90 NOP 004089BD 90 NOP (exeファイル上では-0x400A00;007FB4-007FBDの範囲) あの投稿サイトなら、気に入った作品をお気に入りに入れて、一括表示したのをファイル名に日付込みで保存したほうが確実だし管理しやすいわ なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
東京ローダーなるものがあるが、これは果たして問題ないのだろうか?? 動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。 使えるソフトならば情報がないほうが不自然だが、 それでいて評判が悪いという話も聞かない。 ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。 ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
ハーメルンが常時SSL化になって巡集やGetHTMLで取り込めなくなったんだけど この状態で取り込めるソフト無い?
>>670 ごめん、Youtubeじゃないんだ。 それにスレが落ちてるみたい。 Windows10(home 64bit)で使えるいいダウンローダーないかな? 前のPCで使ってたIrvineみたいなリジューム機能のあるやつ 突然前のPC壊れて新しいの買ったけど調べたら Irvineは7までしか対応してないんだよなぁ・・・・・・
>>675 今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。 ただ、ID認証が標準の機能では弾かれるので困ってる。 いろんなの試したけどホント完全なものってないね。 有料でもいいから、出してほしい。 FirefoxのアドオンDownloadHelperを使ってるがこのごろYouTubeでさえ ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
WEBBOXというの使ってみたんだけど FC2のサイト保存だけいないね エラーになってどっか飛ばされてもとにもどる なんだこれ
他人のツイログを丸ごと保存したいんですが、おすすめのソフトとかありますか?
とある学校のサイトの授業動画をダウンロードしたいんだけど、 どうしても複数ファイルに分割されてしまう。 おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは 一式を一度にダウンロードする方法ってないかな? 一度ダウンロードしておけばスマホで出先で勉強できるんだけど、 毎回アクセスするとパケットがすぐに上限に達してしまう。 なんとかならないかな?
>>683 OBSって配信ソフトじゃないよね? 何の略?? >>680 一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に (Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事 だと思う。 自分のツイートなら、Twitter側の標準機能で保存したのを そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで Webページとして公開できるけどな。 >>688 言い忘れがあってすいません その人ツイログは残ってるんですけどツイッターは消えてるんですよね・・・ >689 ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは? AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。 俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
既に知ってるフリーソフトがあるなら、まず自分で試せよ(w
>>692 いや巡集は試したんですけど駄目でしたw 設定はよくわからないんでほぼいじってないですけどね >>693 プログラムはわからないんですけど一応方法はあるんですね 貴重な情報ありがとうございます 小説家になろうの小説をWeboxで保存したいのですが 年齢制限のある小説は年齢確認のページが文字化けして保存できません 何度か試して一度だけ冒頭の数ページが奇跡的に保存出来ましたが、その後やはり失敗してしまいます 文字化けせずに年齢確認のページが保存されたときはJavaScriptが有効ではありませんという記述がありました 数年前は保存が出来たのですが変化があったのでしょうか また無理であれば代替えソフトも検討しています どうかお知恵をお貸しください Windows vista ブラウザはfirefox使用です
开放分类:武将 吉田孝太赖(1493-不详),长宗我部家臣,后名周孝。 编辑摘要 画像长宗我部家臣,后名周孝。 人物简介 作为长宗我部首席家老辅佐了长宗我部国亲、长宗我部元亲两代主公。 为国亲之股肱。他智勇双全,即可施展谋略,又可冲锋陷阵,与其弟重后一道,为扩大主家的势力做出了重大贡献。 重要作用 娶长宗我部国亲的妹妹为正室,稳住了吉田氏在长宗我部家中的地位。
DownloadHelperを使ってmkvという形式のファイルをダウンロードしたら 左上にQコードみたいのが付いてしまったんですが、これが付かない方法を分かる方はいますか? 英語でメッセージが出たので翻訳をしたんですがどうすればいいのか結局分かりませんでした
昔ダウンロードしたソフトがあって久しぶりに使ってみた。だが、当時とだいぶ状況が違っていた。 なんといってもサイトがでかい。HDが安くなったせいか中には100万枚画像があると豪語するサイトもある。 こんなのをまるごとDLしてたらとんでもない時間がかかる。たとえDLしたとしても100万枚も見切れない。 DL開始してもえんえんとフォルダを作るばかりでなかなか画像のDLに入らないケースもある。やはり設定で画像ファイルだけDLとか選べるようにした方がいい。 あと、サイトの構造をよく解析して、どういう手順でどこをDLするか事前に計画をたてる必要ががありそう。
WeBoXで丸ごと取り込むで エラー フィルタ設定を確認してください と出るんですがどうすればいいんですか
HTML5にフル対応したダウンローダーってないかな? 過去に使ってきたアプリはもうかなり前に更新がストップしたままだし、 現役で使ってるwgetも更新はしてるが未だvideoタグとかのHTML5には 未対応だし。 最近いろんなサイトがHTML5化したと思ってたら、不祥事などで突然 閉鎖しちゃった ... なんてことが多いので本当に困る。
900000000000000000000000000000000000000000000
GetHTMLWをProxyMode2で使ってWikipedia取得、と思ったら取れてない 他サイトでも取得できないのがあるなあと眺めたら、ひょっとしてSSLサイトは取得できないの?
wgetやってみたけど…どこに保存されてるのか全く見つけられん
>>716 馬鹿なユーザーが時間を開けずにアクセスしまくって鯖に負荷かける迷惑行為をするからだろ そういう奴がいるからなかなかソフトを開発する奴が現れない マルチスレッドで爆速だぜ!とかいうキチガイは昔からいたからなあ 斧なんか複数張っちゃダメってきっちり書いてるけど まあその手のソフトも接続数を設定で変更できるのはまだ便利に使えるんだけどねえ
wgetやってみたけど、ページはダウンロードできるけどサイト全体は上手くいかない… Weboxは認識ページは不安定で偶にフィルタ設定しろって出るけど このフィルタ設定が何かわかる方いますか?
WeBoXはGetHTMLWの代わりにといじってみたけど馴染めなかったな
>>716 怪しい通信して良いなら幾らでもある 自分で阻止して使えば wgetが実行中に停止してしまうんですが、原因を知る方法を、 もしご存知でしたらお教えください。 具体的には、「wget.exe has stopped working」ってwindowsのダイアログが出て 強制終了するしかなくなります。 必ず、バイナリファイルのダウンロードが100%になったと同時に停止し、 そのファイルは0バイトになってます。
>>725 ですが解決したので報告だけ 2008年の古いwget使ったらエラー無しでDL完了しました。 DLに使ったの緒はwin 7です。 自分が引っかかった注意点としては、 このバージョンはexeだけgetすると何故か64bitバージョンが DLされるのでsetupのexeをuniextractで解凍し、 出てきたDLLとセットでどっかにコピーして使うことです。 exeとdllのバージョン適合は厳密のようでした。 4K Video Downloader ダウンロード出来んぞ
VideoProcもダウンロード出来んぞ 数日前からダウンロードしようとすると<分析失敗>と表示され何度ダウンロードしようとしても失敗してしまいます。 これはなにが原因として考えられるでしょうか?そして対策は何でしょうね?
VideoProcはきのうあたりから復活して またザクザクとダウンロードできるようになった
4k video downloaderのアカウントごと保存先をまとめて変更する方法ない? かゆいところに手が届かないんだよなぁ。
またVideoProcがダウンロードできなくなった
VideoProcは2日くらい前から使えるようになってます TVの前のみんなもそうですよね
またVideoProcでダウンロードできなくなった。 再開はいつだろう。 こういう不具合さえなければ最高のダウンロードツールなのに。
>>740 のアプリは5日ぶりに復旧した。 使えてる間はダウンロードの神ツール。 またVideoProcでダウンロードできなくなった。 再開はいつだろう。 こういう不具合さえなければ最高のダウンロードツールなのに。
ちなみに、 ・VideoProc ・winx youtube downloader どちらもダウンロード界の最高神ツール。 なぜみんなもっと話題にならないの? まさかこれよりいいツールなんてあるわけないし。
今日またVideoProcでダウンロードできなくなってる。 再開はいつだろう。
6/20の障害はすぐ復旧したけど、 今日6/27またVideoProcでダウンロードできなくなってないか?
4k videodownloaderまたダウンロードできなくなってない?ようつべ。
7/28ころからまたVideoProcでダウンロードできなくなった。 再開はいつだろう。 こういう不具合さえなければ最高のダウンロードツールなのに。