上上网 发表于 2019-9-20 18:34

跑大字典问题看过来

本帖最后由 上上网 于 2019-9-21 07:43 编辑

是不是错别字特别多? 手写的,不知道会不会没人喷,好害怕啊

跑大字典时
发现了很多问题,从论坛下载的字个个都是大家伙,块头大,读取字典困难等问题,例如泄露门完美字典,4库字典,新华字典这些,等等有些单个文件都上20多G甚至100多G大块头,使用ewsawifipr跑包时你会发现一开始容易起步,但跑的一段时间停止后,再开始攻击,就看到跑包软件一直在转圈圈呢 !甚至中途出现程序死掉情况也有很多,不用问了肯定的,估计是程序读取那么大字典需要很多时间,如果是中途將要停止休息几次情况下,再开始跑时简直就难以忍受那等待时间,感觉这时程序随时很有可能死去,如果可以幸运的可接回上一次的进度,也得花上半天时间等待,简直是耽误了跑出mm时间

打了那么多字,问题核心来了
事实上看到很多人一拿到大字典就挂入跑,谁也从没有想过上面情境,
要防止出现上面情境,我们只需要把字典分割成300或500Mb左右大小文件最为合适,这是根据实战得出结论。分太大了要等待超时不觉得舒心,分太小了造成文件过多,般以上面数据大小较为合适, 现在机械硬盘读写速度有限。但如果你的是固态,m2接口例外,可以分割成1Gb一个文件应该也没读写压力

重要提示
分割可以用品轩1.6版本,一个保持专业素质的一个好工具


这是个人实战时使用灵感分享出来给大家,一般人我是不会说的



雁坨 发表于 2019-9-20 21:19

分享看了!

逍遥帝国杀手 发表于 2019-9-21 00:50

上了200M的宽带,懒得破别人的了。

cwang2100 发表于 2019-9-21 20:54

谢谢楼主经验无私分享!

linst 发表于 2019-9-21 21:34

在Linux下用hashcat跑 20多G的都没问题 比Windows下的EWSA等速度快多了 ,唯一的缺点是安装显卡驱动很麻烦

mitu123 发表于 2019-11-10 04:51


谢谢楼主经验无私分享!

jjyy88 发表于 2020-1-8 09:25

hashcat不错

zhan5591722 发表于 2020-9-24 16:44

kan kan a

diangon7 发表于 2023-4-28 08:41

{:1_1:}{:1_1:}
页: [1]
查看完整版本: 跑大字典问题看过来