项目简介
本项目是一个专为被动扫描器设计的前端爬虫,结合了Chrome Headless、主控程序、Mysql数据库、RabbitMQ和被动扫描器,能为被动扫描器提供高效、智能的爬虫支持。通过模拟用户点击和触发事件,将流量导出到被动扫描器,还支持智能表单填充、登录框判断、任务管理和Webhook接口等功能。
项目的主要特性和功能
- 基于Chrome Headless技术模拟用户操作,触发页面事件。
- 利用RabbitMQ进行任务管理,支持大量线程同时处理任务。
- 智能判断页面中的表单并自动填充数据。
- 通过算法智能判断页面中的登录框,为被动扫描器提供登录信息。
- 提供Webhook接口,用于将扫描结果发送到指定地址。
- 内置Hackerone和Bugcrowd爬虫,支持一键获取目标的所有范围。
安装使用步骤
环境准备
- Python 3.x
- ChromeDriver
- MySQL
- RabbitMQ
- 被动扫描器
安装步骤
- 安装依赖库:使用
pip
安装项目所需的Python库。bash pip install -r requirements.txt
- 配置数据库:创建数据库和表结构。
sql CREATE DATABASE lspider;
- 启动RabbitMQ服务:确保RabbitMQ服务正常运行。
bash sudo systemctl start rabbitmq-server
- 配置项目:根据项目需求,配置项目参数。
bash cp config.example.json config.json vi config.json
- 启动爬虫:运行爬虫,进行网页抓取。
bash python3 manage.py SpiderCoreBackendStart --test
使用示例
- 启动爬虫后端:通过Django命令行工具启动爬虫后端。
bash python3 manage.py runserver
- 运行爬虫:对指定目标进行爬虫操作,获取网页内容。
bash python3 manage.py HackeroneSpider {appname}
- 处理结果:根据爬虫结果,进行进一步的分析和处理。
注意事项
- 确保环境配置正确,包括Python版本、库依赖、数据库和RabbitMQ服务。
- 在启动爬虫之前,请确保目标网站允许爬虫访问。
- 遵循网站的使用条款,尊重网站的版权和隐私政策。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】