We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
首先非常感谢作者开发了这个强大的扫描工具,特别是可以绕过安全狗跟云锁的功能就很方便 但是跟御剑一样,此软件在加载大量url的时候,比如20w的时候就会出现假死.甚至这个软件的假死时间比御剑还长.
所以想请问能否改进一下,使得其能够在加载大量域名的时候不会卡死 test404的那个fuzzer其实做的非常好,如果可以的话可以借鉴一下思路
The text was updated successfully, but these errors were encountered:
现在的设计并未考虑到如此大量的url 另可能因计算机配置原因 我在本地测试加载百万级字典 与加载百万url 皆未出现问题
原因:采取了将所需要文本一次性加载入内存中 解决方案:下个版本采取一行一行读取需要文档,但如果这样操作使用中不能操作加载的文档
Sorry, something went wrong.
这是我电脑的配置 emmmmm可能比较渣吧 或者可以加一个判断 分情况 如果行数大于3w就一次readline一部分 如果url数量较少就一次全部读取
可以
首先感谢大佬,然后真的好容易假死呀,分分钟未响应,哈哈哈,期待改善~~
No branches or pull requests
首先非常感谢作者开发了这个强大的扫描工具,特别是可以绕过安全狗跟云锁的功能就很方便
但是跟御剑一样,此软件在加载大量url的时候,比如20w的时候就会出现假死.甚至这个软件的假死时间比御剑还长.
所以想请问能否改进一下,使得其能够在加载大量域名的时候不会卡死
test404的那个fuzzer其实做的非常好,如果可以的话可以借鉴一下思路
The text was updated successfully, but these errors were encountered: