下へ
> 2005/05/08 (日) 23:52:13 ◆ ▼ ◇ [qwerty]> > > > > > な い
> マジ?
君が美少年でチンコあぷしたらわの人あたりが作ってくれる
参考:2005/05/08(日)23時50分35秒
> 2005/05/08 (日) 23:50:35 ◆ ▼ ◇ [qwerty]> > サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> > そのサイト内のページ数は10万を超えています。
> > GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> > 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> > ハイパリンクを正しくたどれません。
> > だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> > 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> > ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> > ものを教えてください。パッケージ製品でもかまいません。
>
>
> な い
マジ?
参考:2005/05/08(日)23時48分32秒
> 2005/05/08 (日) 23:48:32 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
な い
参考:2005/05/08(日)23時38分47秒
> 2005/05/08 (日) 23:45:42 ◆ ▼ ◇ [qwerty]> > サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> > そのサイト内のページ数は10万を超えています。
> > GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> > 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> > ハイパリンクを正しくたどれません。
> > だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> > 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> > ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> > ものを教えてください。パッケージ製品でもかまいません。
> 直してくれると思ったけど
> 波乗り野郎とかは?
きちんと読もうぜ
参考:2005/05/08(日)23時42分23秒
> 2005/05/08 (日) 23:44:59 ◆ ▼ ◇ [qwerty]> > 直してくれると思ったけど
> > 波乗り野郎とかは?
> > つかこういうのってjavaリンクがたどれないのが痛いよな
> (; Д )
ひええっ5行目までしか読んでなかった
参考:2005/05/08(日)23時42分45秒
> 2005/05/08 (日) 23:43:23 ◆ ▼ ◇ [qwerty]> > サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> > そのサイト内のページ数は10万を超えています。
> > GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> > 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> > ハイパリンクを正しくたどれません。
> > だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> > 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> > ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> > ものを教えてください。パッケージ製品でもかまいません。
> ゲットライト
それ単なるダウンローダだろ馬鹿
参考:2005/05/08(日)23時40分18秒
> 2005/05/08 (日) 23:42:45 ◆ ▼ ◇ [qwerty]> > サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> > そのサイト内のページ数は10万を超えています。
> > GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> > 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> > ハイパリンクを正しくたどれません。
> > だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> > 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> > ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> > ものを教えてください。パッケージ製品でもかまいません。
> 直してくれると思ったけど
> 波乗り野郎とかは?
> つかこういうのってjavaリンクがたどれないのが痛いよな
(; Д )
参考:2005/05/08(日)23時42分23秒
> 2005/05/08 (日) 23:42:23 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
直してくれると思ったけど
波乗り野郎とかは?
つかこういうのってjavaリンクがたどれないのが痛いよな
参考:2005/05/08(日)23時38分47秒
> 2005/05/08 (日) 23:40:43 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
今回はえらく丁寧な口調だが何かあったのか?
参考:2005/05/08(日)23時38分47秒
> 2005/05/08 (日) 23:40:18 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
ゲットライト
参考:2005/05/08(日)23時38分47秒
> 2005/05/08 (日) 23:39:43 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
wgetでいいんじゃないか
参考:2005/05/08(日)23時38分47秒
> 2005/05/08 (日) 23:39:22 ◆ ▼ ◇ [qwerty]> サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
> そのサイト内のページ数は10万を超えています。
> GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
> 相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
> ハイパリンクを正しくたどれません。
> だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
> 数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
> ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
> ものを教えてください。パッケージ製品でもかまいません。
wget
参考:2005/05/08(日)23時38分47秒
2005/05/08 (日) 23:38:47 ◆ ▼ ◇ [qwerty]サイトを丸ごとダウンロードしてすべてのページをオフラインで見たいと思っています。
そのサイト内のページ数は10万を超えています。
GetHTMLはきちんとリンクをたどってくれるのですが、ページ内の絶対URLを
相対パスに書き換えてくれるわけではないので、GetHTMLなしの状態ではオフラインで
ハイパリンクを正しくたどれません。
だいぶ前に無料化されアップデートも止まった波乗野郎は、リンクの書き換えをしてくれるのですが、
数万ページを越えるようなサイトではその書き換えが完璧ではありません(先が普通のHTMLでも書き換え残しが出ます)。
ページ数が異常に多いサイトでも保存した各ページのリンクをきちんと書き換えてくれるような
ものを教えてください。パッケージ製品でもかまいません。
上へ