下へ
> 投稿者:元プログラム担当空白 2001/01/19 (金) 07:55:08 ◆ ▼ ◇ [mirai]> > 2TBもシステムが使えたっけ?
> > タンデムの大容量ファイルサーバでもないと無理な気がする・・・
> ファイル分けることで解決しない?
あ、リニアな辞書じゃなくて図書館の目録みたいに分ければいいのかな?
参考:2001/01/19(金)07時54分24秒
>元プログラム担当空白 2001/01/19 (金) 07:54:24 ◆ ▼ ◇ [mirai]> > そこまで使えるように頑張らんかい(`Д´)
> > 34MBなんて少なすぎるぞ(`Д´)
> 2TBもシステムが使えたっけ?
> タンデムの大容量ファイルサーバでもないと無理な気がする・・・
ファイル分けることで解決しない?
参考:2001/01/19(金)07時53分11秒
> 投稿者:元プログラム担当空白 2001/01/19 (金) 07:53:11 ◆ ▼ ◇ [mirai]> > そこまで使わないだろうって前提でかかっていいのかな・・・
> そこまで使えるように頑張らんかい(`Д´)
> 34MBなんて少なすぎるぞ(`Д´)
2TBもシステムが使えたっけ?
タンデムの大容量ファイルサーバでもないと無理な気がする・・・
参考:2001/01/19(金)07時51分33秒
>元プログラム担当空白 2001/01/19 (金) 07:51:33 ◆ ▼ ◇ [mirai]> > 甘えるなゴルァ(`Д´)
> > 2TBなんて一年後にはポータブルサイズになってるさ(`Д´)
> そこまで使わないだろうって前提でかかっていいのかな・・・
そこまで使えるように頑張らんかい(`Д´)
34MBなんて少なすぎるぞ(`Д´)
参考:2001/01/19(金)07時46分51秒
> 投稿者:元プログラム担当空白 2001/01/19 (金) 07:46:51 ◆ ▼ ◇ [mirai]> > やっぱり65535単語でカンベンして(;´д`)これなら最大34メガの辞書で済む
> > 検索時間の兼ね合いもあるし・・・
> 甘えるなゴルァ(`Д´)
> 2TBなんて一年後にはポータブルサイズになってるさ(`Д´)
そこまで使わないだろうって前提でかかっていいのかな・・・
参考:2001/01/19(金)07時43分09秒
>元プログラム担当空白 2001/01/19 (金) 07:43:09 ◆ ▼ ◇ [mirai]> > 頑張るしかない
> やっぱり65535単語でカンベンして(;´д`)これなら最大34メガの辞書で済む
> 検索時間の兼ね合いもあるし・・・
甘えるなゴルァ(`Д´)
2TBなんて一年後にはポータブルサイズになってるさ(`Д´)
参考:2001/01/19(金)07時39分52秒
> 投稿者:元プログラム担当空白 2001/01/19 (金) 07:39:52 ◆ ▼ ◇ [mirai]> > いま試算してたんだけど単語を2^32個記憶できるようにすると最大で2.2TBもディスクを食うよ・・・
> 頑張るしかない
やっぱり65535単語でカンベンして(;´д`)これなら最大34メガの辞書で済む
検索時間の兼ね合いもあるし・・・
参考:2001/01/19(金)07時37分13秒
>元プログラム担当空白 2001/01/19 (金) 07:37:13 ◆ ▼ ◇ [mirai]> いま試算してたんだけど単語を2^32個記憶できるようにすると最大で2.2TBもディスクを食うよ・・・
頑張るしかない
参考:2001/01/19(金)07時35分57秒
投稿者:元プログラム担当空白 2001/01/19 (金) 07:35:57 ◆ ▼ ◇ [mirai]いま試算してたんだけど単語を2^32個記憶できるようにすると最大で2.2TBもディスクを食うよ・・・
上へ