arachni 怎么扫描有登录界面怎么测试的网址啊?

记录黑客技术中优秀的内容, 传播黑客文化,分享黑客技术精华
爬虫 JavaScript 篇[Web 漏洞扫描器]
由 fate0 于
16:32:14 发表
0x00 前言上一篇主要讲了如何通过修改 Chromium 代码为 Web 漏洞扫描器的爬虫打造一个稳定可靠的 headless 浏览器。这篇我们从浏览器底层走到上层,从 C++ 切换到 JavaScript,讲一下如何通过向浏览器页面注入 JavaScript 代码来尽可能地获取页面上的链接信息。0x01 注入 JavaScript 的时间点首先我们要解决的第一个问题是:在什么时间点向浏览器页面注入 JavaScript 代码?答
发布时间: |
阅读:17252 | 评论:0 |
在进行恶意软件分析研究时,研究人员往往会用一些得手的工具和系统来帮助他们自动搜索并分析大量的恶意样本,以便高效的找出自己想找的那类型恶意软件。这些工具在研究变种快且跨度时间较长的APT攻击活动时非常有用。其中最常用的一种用于寻找新的恶意软件变种的工具叫做YARA,YARA是一款旨在帮助恶意软件研究人员识别和分类恶意软件样本的开源工具,使用YARA可以基于文本或二进制模式创建恶意软件家族描述与匹配信息。现在已经被多家公司所运用于自身的产品,比如卡巴斯基实验室正在研发的Klara工具,Klara工具是一个分布式YARA恶意软件扫描系统,旨在帮助研究人员使用Yara搜索发现新的恶意软件。YARA是什么?YARA被定义为“旨在
发布时间: |
阅读:25438 | 评论:0 |
Zeus-Scanner中文可以翻译为宙斯扫描器,是github上一款用python开发的开源工具(github原地址链接)。它是通过selenium-webdriver来自动运行web浏览器(firefox)。能够绕过搜索引擎的API调用,IP黑名单和验证码机制,从而不断地向搜索引擎发送request请求。
宙斯扫描器本身内置有url解析器,除了默认的Google搜索引擎之外还兼容Aol,Bing和DuckDuckGO多个搜索引擎,同时能够对搜索结果进行多个漏洞评估。
宙斯扫描器的主要特点如下:
1,内置url解析器;
2,兼容多个搜索引擎;
3,&能够从谷歌url黑名单中提取url 链接从而绕过IP池
4,兼容多个代理(http,https, socks4
发布时间: |
阅读:57109 | 评论:0 |
最近写了一个小系统,需要调用AWVS扫描工具的API接口实现扫描,在网上只搜到添加任务和生成报告的功能实现代码,无法添加扫描对象登录的用户名和密码,如果不登录系统扫描,扫描效果肯定会大打折扣。现在通过selenium实现,并实现扫描结果风险数量和类型的提取。
用到的库:selenium,requests,BeautifulSoup
变量定义:包括awvs的用户名和密码、被测系统的用户名和密码等,具体如下,
awvs_username = ''
awvs_password = ''
app_username = ''
app_password = ''
app_url = ''
# 被测系统域名
api_key = 'a5b3df4dc06e936cb
发布时间: |
阅读:27166 | 评论:0 |
作者:{SJW}@ArkTeam
Arachni是一个开源的,全面的、模块化的Web漏洞扫描框架,它能够帮助渗透人员和网络管理人员测试Web应用的安全性。
一、功能介绍
Arachni能适用于多平台和多语言:
Arachni对于常见的漏洞类型基本都能覆盖到,且准确率对于同等开源工具更高,主要的漏洞检测有下面这些:
Arachni具有良好的可扩展性,通过添加插件可以增加它的扫描范围和深度。
二、工具安装
软件官网地址
http://www.arachni-scanner.com/
github地址
https://github.com/Arachni/arachni/
Arachni平台支持linux,mac,windows,只需下载文件包后解压就可以运行了,十分方便。运行可视化A
发布时间: |
阅读:73110 | 评论:0 |
作者:{ whiteater }@ArkTeam
“如果你2010年用买iPhone的钱买比特币,那么现在你已经有7个亿了”,看完这句话,是不是整个人都不好了?
图1 比特币价格走势
12月1日,单个比特币的实时价格是9732美元。巨大的利益带来了不断增长的安全威胁,越来越多的黑客开始把目光投向暴露在互联网上的比特币(Bitcoin)和以太币(ETH)钱包。
安全研究人员Stevens表示,黑客们通过不断的扫描发现这些钱包,并尝试转移钱包里的比特币。扫描的目标文件包括wallet.dat、wallet.dat.1、wallet.dat.zip、wallet – Copy.dat、wallet.tar、wallet.tar.gz、wallet.zip、wallet_backu
发布时间: |
阅读:56917 | 评论:0 |
重新评估一些操作的执行情况有时会带来新的见解,本博文就是建立在这样的观点上构思的。请注意,本文所述的技术我只在两个“测试”网络上进行了测试,所以我不能保证这种技术永远奏效。最糟糕的情况是,你将阅读的内容是开箱即用的,换句话说,本博问所描述 ...
发布时间: |
阅读:35932 | 评论:0 |
优秀的漏洞扫描软件Code Arbiter介绍,安卓Android Studio源码扫描软件。今朝Android利用代码漏洞破绽bug扫描对象重如果在利用打包实现后,对利用停止解包扫描。而专门针对Android Studio中的源码停止漏洞破绽bug扫描的对象则较少,且笼罩的漏洞破绽bug品种不全
发布时间: |
阅读:92001 | 评论:0 |
很不专业的“漏洞扫描软件”,是否吓到你了呢?很多人经常喜欢下载一些漏洞扫描软件,这扫扫,那扫扫,自然也扫出很多“高危漏洞”。看到这些高危漏洞,你是不是有点小紧张呢?那么看完这篇文章,你会了解这Oracle patch的原理,也就豁然了。
发布时间: |
阅读:28832 | 评论:0 |
Nmap的高级漏洞扫描模块Vulscan。近来,在漏洞百出的多事之夏,你可能苦于找不到一款好用的漏洞扫描器,于是乎我们来隆重推荐一下Vulscan,它是Nmap的一个漏洞扫描增强模块,通过它可以把Nmap打造成一款实用高效免费的漏洞扫描器。
发布时间: |
阅读:30996 | 评论:0 |
如何使用Shodan及Go语言扫描多个目标。我使用Go语言开发了一段小脚本程序,这个程序可以根据给定的目标列表查询Shodan数据库。然后,我从Bugcrowd网站上搜集了所有的漏洞奖励项目,将这两者结合起来进一步研究。详细细节如下文所述。
发布时间: |
阅读:19867 | 评论:0 |
阅读:1224次
来源: medium.com/@woj_ciech
发布时间: |
阅读:30434 | 评论:0 |
容器可追溯到1979年的chroot命令,但Docker的出现让该技术的流行度和可用性有了指数级增长。任何技术一旦流传开来,必然也就成了攻击的目标。容器旨在提供非完整虚拟机之外的隔离环境,但因为往往不像IT环境中其他资产一样受到监视,容器也就成为了攻击者眼中的肥肉。公司企业有必要对容器进行漏洞评估,就像对环境中其他任何资产所做的那样。有那么几个漏洞扫描器可以扫描运行中的容器并报告漏洞,旦那只是整个评估的一部分。容器并非全时段运行,只有完成特定任务时调用一下,然后就是暂停挂起或关机,直到下一次需要的时候再运行。如果扫描的时候容器没在运行,传统扫描器就可能会错过漏洞。我们可以做个类比以更好地理解这种情况。大多数公司都用笔记本电脑,也会对笔记本电脑进行漏洞扫描。如果扫描的时候笔记本电脑正好接入网络,那么其中存在的漏洞
发布时间: |
阅读:45898 | 评论:0 |
*本文原创作者:陆仁甲,本文属FreeBuf原创奖励计划,未经许可禁止转载
正所谓善守者不知其所攻,善攻者不知其所守。网络攻防本来就是一场看不见硝烟的对抗。
本人设计的这套端口蜜罐检测程序,是在总结了大量的APT攻击方法和思路之后,结合自己分析和思考,针对当前企业面临的大量黑客攻击,而无法得到有效的预警信息,设计了这个简易版本的蜜罐程序。
二 设计方法和思路
下面结合APT攻击的常见流程来分析端口蜜罐程序设计的方法和思路。
上面这张图片只是列出了常见的三种攻击流程,APT攻击的方法和思路还有很多,如2010年的震网病毒, 近两年被发现的往流行的网络管理客户端xshell,putty,secureCRT等植入后门再从中筛选攻击目标 等等。
在上面的三种APT攻击方法中,第一种方法是最普遍,
发布时间: |
阅读:51813 | 评论:0 |
今天给大家介绍的是一款BurpSuite插件,这款插件名叫HUNT。它不仅可以识别指定漏洞类型的常见攻击参数,而且还可以在BurpSuite中组织测试方法。
HUNT Scanner(hunt_scanner.py)
实际上,HUNT并不会直接对这些可能存在漏洞的参数进行测试,而是提醒测试人员这些参数的存在并对参数进行定位,Bug Hunter需要手动对这些参数进行进一步测试。对于每一类安全漏洞,HUNT都会将与漏洞参数和函数有关的信息提供给测试人员,并在问题描述中给出相关问题的参考资源以帮助测试人员手动对该漏洞类型进行测试。
HUNT Methodology(hunt_methodology.py)
该插件允许测试人员在一个名叫“HUNT Methodology”的Bur
发布时间: |
阅读:63301 | 评论:0 |
*本文原创作者:TimeShatter,本文属FreeBuf原创奖励计划,未经许可禁止转载
利用ms17_010的永恒之蓝在前些日子火爆了一段时间,校园网中也声称封锁了相应端口。最近在搞MSF的深入学习,于是有了下文。
ms17_010扫描工具
msf中的辅助模块含有一个强大的ms17_010扫描工具:
auxiliary/scanner/smb/smb_ms17_010
使用这个工具可以快速扫描某个网段中含有ms17_010漏洞的主机,该工具的使用也很简单。
首先确定要扫描的网段,以我学校的校园局域网为例,要扫描的网段为10.31.0.0/16。实际上经过测试,只需扫描10.31.0-128.1-254 就可以了。
具体的命令如下:
use auxiliary/scanner/smb/smb_ms17
发布时间: |
阅读:154212 | 评论:0 |
关注公众号hackdig,学习最新黑客技术Arachni - 简书
title: Arachni
tags: Kali渗透测试 Web渗透测试
0x00 Arachni
Arachni 是一款算不上强大但非常有特性的扫描器,默认kali 2.0 自带阉割版。
所以我们需要重新安装。
Arachni官方网站:
Arachni 时开源跨平台的,同时也支持 Windows
和 Mac 版本。
安装包下载完成以后,将其复制到当前目录并解压
root ~ cp Downloads/arachni-1.4-0.5.10-linux-x86_64.tar.gz .
root ~ tar xvf arachni-1.4-0.5.10-linux-x86_64.tar.gz
cat Arachni 的 README 文件可以发现默认 Arachni 有两个账号
Default account details:
Administrator:
E-mail address: admin@admin.admin
administrator
E-mail address: user@user.user
regular_user
Arachni 有两种不同的启动方式,console 和 Web 方式,分别对应 Arachni bin 目录下的 arachni_console 和 arachni_web 启动脚本:
root ~ arachni-1.4-0.5.10 bin ls
arachni_console
arachni_rpcd_monitor
arachni_restore
arachni_web
./arachni_web
root ~ arachni-1.4-0.5.10 bin ./arachni_web
Puma 2.14.0 starting...
* Min threads: 0, max threads: 16
* Environment: development
* Listening on tcp://localhost:9292
此后访问 Arachni 的 Web
[页面,使用刚才的管理员账号和密码进行登录。
0x01 Arachni 操作初识
Arachni.png
进入到 Arachni 的 web 操作界面,我们可以发现 Arachni 的操作是一目了然的。我们先来看看它的扫描功能,如果只是做个简单的 web 扫描的话,那么 Arachni 默认已经给我们准备好了上扫描加脚本。但是 Arachni 的真正强大之处在于它的 Advanced options 。
Advanced options
Arachni 支持的是 分布式的扫描 (Dispatcher)。
Dispatcher.png
Scheduling
此外 Arachni 还可以提供调度扫描
Scheduling .png
有意思的是 ,匿名者组织也对 Arachni 钟爱有加
你的内心肯定有着某种火焰,能把你和其他人区别开来。-- J·M· 库切
第五章 漏洞扫描 作者:Justin Hutchens 译者:飞龙 协议:CC BY-NC-SA 4.0 尽管可以通过查看服务指纹的结果,以及研究所识别的版本的相关漏洞来识别许多潜在漏洞,但这通常需要非常大量时间。 存在更多的精简备选方案,它们通常可以为你完成大部分这项工作...
Web应用渗透测试框架Arachni Arachni是一款Ruby语言编写的Web应用渗透测试框架。当用户指定目标后,该框架可以自动扫描网站页面,对页面中的链接、表单、Cookie、HTTP Header等元素进行检测。该工具默认集成大量的检测工具,可以实施代码注入、CSR...
作者:Gilberto Najera-Gutierrez译者:飞龙协议:CC BY-NC-SA 4.0 简介 在每个渗透测试中,无论对于网络还是 Web 应用,都有一套流程。其中需要完成一些步骤,来增加我们发现和利用每个影响我们目标的可能的漏洞的机会。例如: 侦查 枚举 利...
第二章 侦查 作者:Gilberto Najera-Gutierrez 译者:飞龙 协议:CC BY-NC-SA 4.0 简介 在每个渗透测试中,无论对于网络还是 Web 应用,都有一套流程。其中需要完成一些步骤,来增加我们发现和利用每个影响我们目标的可能的漏洞的机会。例如...
关键组件 arachni celery mitmproxy 其中为了能够让celery运行在windows上面,我选择的版本是3.1.25。redis作为celery的broker并且设置了密码。通过celery -A scan worker --loglevel=info...
在网络上经常有人问我饮食营养搭配的原则和方法,我总是很困扰。因为在心理上,我是不愿意这样草率的给一个人制定一个食谱的,因为就目前我们掌握的科技来说,还不具备在网上给我几个数据,就能配置一个一个月、一年都不用调换的食谱。 关于营养配餐有没有一劳永逸的方法,很显然不太可能,所以...
在我们小小的村庄里,我们的家族是一个很大的家族,有大半个村子都是我们家族的人。我有很多个伯伯叔叔,其中三伯伯家和我们家关系最好,其他都是不远不近的:有事时聚在一起,很团结的样子,没事时各过各的日子,在路上遇到时彼此打声招呼,像任何的路人一样。三伯伯有两个女儿,我和他家的小女...
每个人的职场中都有或多或少的坑,可能有人会说,我行的端、走的正,不怕被车撞。 可是往往职场中的坑,不会因为你的品行端正而远离你。 有句话这样说,你又不是人民币,怎么可能人人都喜欢你。 那些不喜欢你的人,往往就是给你挖坑的人,喜欢你的人,也可能因为一时的冲动,给你挖个小坑。 ...
天下风云出我辈,一入江湖岁月催,王图霸业谈笑间,不胜人生一场醉! 云梦山鬼谷里清溪旁,古风素衣抚古琴,琴声悠远流长,绵延不绝。琴声铿锵,是他少年,勤学苦练的回应,有为古家八十三口复仇的坚定;手指飞快,弦随指动,琴声流畅,宛若剑法初成的妙韵;琴韵平平,若其剑法大成,以静制动,...
婆媳关系一直是中国经久不衰的话题,跟随着一代又一代人。不管是现实生活中,还是电视剧里。婆媳关系永远是中国人最爱讨论、八卦的事情,婆媳关系自古成了很多人的困扰,稍微处理不好整个家庭就别想过太平了。
大学时代好姐妹之间最常谈的话题就是男朋友,毕业后最常谈的就是工...QRLJacking:如何劫持快速登陆时使用的二维码 - FreeBuf互联网安全新媒体平台 | 关注黑客与极客
QRLJacking:如何劫持快速登陆时使用的二维码
共337283人围观
,发现 9 个不明物体
如果你在电脑上用过微信,一定对下面的画面不陌生。实际上不仅是微信,Line、WhatsApp都使用这种简单快速的验证系统。
SQRL登录系统
这种系统叫做SQRL(Secure Quick Response Login,安全快速响应登录),这是一种基于二维码的验证系统,特点就是可以让用户快速地登陆网站,不需要输入用户名密码。
所谓二维码,就是一维条码的基础上扩展出另一维具有可读性的条码,它能够包含大量的信息,包括共享密钥或者会话cookie。
用户扫描之后就不用再输入用户名密码了。由于密码可以通过keylogger、中间人攻击 、或者暴力破解,所以相比之下,二维码就安全得多。
但是看似安全的技术,黑客总能想到对付它的方法。
QRLJacking:劫持基于二维码的登陆系统
埃及信息安全公司Seekurity Inc的研究员想出了对二维码登录进行劫持的方法,并且发布了PoC演示。
研究员把攻击方法命名为QRLJacking,这种方法简单,但影响却很恶劣,能够影响到所有那些使用了二维码登录的网站。攻击者需要做的是让受害者扫描一个二维码。
攻击者建立客户端二维码会话,然后把登录二维码复制到钓鱼网站。
攻击者将钓鱼页面发给受害者。
如果受害者相信了,就会用手机扫描二维码
手机里的应用就会把secret token发送给目标服务完成认证过程。
最后攻击者作为发起客户端客户端二维码会话的人,获得了受害者账号的控制。
之后,服务就会开始在攻击者的浏览器会话中交换受害者的数据。
因此,要进行QRLJacking攻击,黑客只需:
进行二维码刷新的脚本
制作好的钓鱼网站页面
攻击者在进行攻击时要使用特定的脚本,因为这些登录界面的二维码定期会刷新,旧的就会失效,所以脚本的作用就是要实时地进行刷新。
QRLJacking攻击成功后,攻击者就可以完全控制账号,甚至能够获取到受害者的地理位置、设备IMEI号、SIM卡数据和其他敏感信息,这些信息都是客户端app在登录的时候会展现的。
更多更详细的技术细节,可访问或查看。
*参考来源:,FB小编Sphinx编译,转载请注明来自Freebuf黑客与极客(FreeBuf.COM)
朋友经常借我q号玩游戏由于我开了安全中心验证,我就让他直接截个登陆的二维码图给我扫一扫 :mrgreen: 其实是不想给他密码
这是做了一模一样的钓鱼网站吧,没注意以为要登录就点了。
乌云到底怎么了,求知情人爆料
被世纪佳缘捅菊花了?
必须您当前尚未登录。
必须(保密)
这家伙太懒了,什么都没写
关注我们 分享每日精选文章
可以给我们打个分吗?【技术分享】基于Arachni构建黑盒扫描平台 - 推酷
【技术分享】基于Arachni构建黑盒扫描平台
预估稿费:300RMB
投稿方式:发送邮件至
,或登陆网页版在线投稿
对于企业来说,构建自动化黑盒扫描平台是企业安全建设中的一个重要环节,自动化扫描能够有效提升效率,在一定程度上减少常规安全问题的发生。
对于大型互联网和土豪公司来说,都会选择招人自研扫描器或直接购买付费产品,但是对于安全资源有限的公司来说,自研或购买付费产品都是不太现实的,那么性价比较高的方式就是选择基于开源扫描器构建自动化扫描平台。
那么问题来了,目前开源的扫描器有好几种,如何选择一个适合的呢?
首先简单说一说我司情况,主要为APP接口和H5页面,扫描的前端展示自己写,然后调用引擎的API进行扫描,获取结果存储在数据库。
扫描需求包括:
主动扫描: 用户可以在界面上手工填写配置(url,cookie,自动登录等),提交扫描任务
被动扫描: 通过设置代理的方式,收集测试和预发环境下的请求信息,然后定时扫描
公司之前使用
作为黑盒扫描的引擎,总体使用起来效果不是太好,首先其
不完全是 REST 风格的,且不支持单接口 POST 扫描(给定请求参数进行扫描)等,所以决定更换一个扫描引擎。
对市面上的开源扫描器简单研究了下,主要从以下几个方面评估:
扫描准确率
支持的扫描漏洞类型
爬取页面时,能够模拟用户交互,即是否支持DOM,AJAX等技术
支持指定请求参数进行 GET / POST 扫描
是否提供 API,且易于使用
是否支持登录扫描(带 Cookie 或 自动登录)
部署是否方便,文档是否完善,扫描报告内容是否易于判断误报
社区是否活跃,技术支持是否有保证
列的要求比较多,评估的时候尽可能满足就好...
这里根据试用结果和网上资料,对照要求给出结论:
准确率:因为时间有限,没有一一测试,参考的的是
的报告,按照表中的结果,
排在前几位
性能:时间原因,没有一一测试
对于常见的漏洞类型基本都覆盖到了,完整的类型可以参考
模拟用户交互:
带参数扫描:
来支持,支持 GET 和 POST
基于 ruby 语言编写,提供了完整的
登录扫描:支持设置 cookie 参数,并支持
来实现自动登录
提供自包含 package,无需安装依赖;
写的比较详细;报告内容总体还算比较详细,支持多种格式,如 html, json 等
代码目前还在更新中,之前在 github 上提 issue,作者都会积极回答,回复速度也比较快,技术支持比较有保障
所以,最后就决定使用
在使用 Arachni 的过程中,遇到过一些坑,这里给大家分享一下这段时间使用的一些经验,比如常用场景的配置、注意事项、二次开发等等,希望对大家有帮助~
在部署方面,Arachni 提供了 self-contained 的 package,所以只需要下载后解压就可以运行了,非常方便,下载地址 稳定版,开发版本,推荐先使用稳定版本
平台支持 Linux, MacOS, Windows,以 linux 为例,下载解压后,运行 rest api server
#./bin/Arachni_rest_server
--address 0.0.0.0 --port 8888
Arachni - Web APPlication Security Scanner Framework v2.0dev
Author: Tasos &Zapotek& Laskos &tasos.laskos@Arachni-scanner.com&
(With the support of the community and the Arachni Team.)
http://Arachni-scanner.com
Documentation: http://Arachni-scanner.com/wiki
[*] Listening on http://0.0.0.0:8888
这里先大致介绍一下 Arachni Rest API 创建扫描任务的配置项,完整的参数和说明可以对照命令行参数说明:
&url& : null,
// 扫描链接,必须
&checks& : [&sql*&, &xss*&, &csrf&], // 必须,扫描的漏洞类型,支持通配符 * ,和反选 -xss*,即不扫描所有类型的 xss
&http& : { // http请求相关配置,比如设置 cookie 和 header
&user_agent& : &Arachni/v2.0dev&,
&request_headers& : {},
&cookie_string& : {} // 请求中的完整 cookie 字段
&audit& : {
// 扫描相关配置,比如哪些参数需要扫描,是否要对 cookie,json 进行扫描等
&exclude_vector_patterns& : [],
&include_vector_patterns& : [],
&forms&: true,
// 扫描 表单
&cookies&: true,
// 扫描 cookies
&headers&: true, // 扫描 headers
&input& : { // 设置请求参数的值
&values& : {}
&scope& : {
// 扫描范围相关,比如限制爬取页面数,限制扫描url路径
&page_limit& : 5,
&path_exclude_pattern& : []
&session& : {}, // 登录会话管理,如当前会话有效性验证
&plugins& : {}
// 插件,比如设置自动登录,指定请求参数进行扫描
接下来以 DVWA 1.9 为测试目标,介绍一些常见场景的扫描配置,DVWA 1.9 的安装和使用大家可以网上搜一下,这里就不做介绍了。
因为 DVWA 1.9 默认登录后返回的 security 级别为 impossible,会导致使用自动登录插件后无法扫出漏洞,这里修改了代码,让它默认返回 low
修改 config/config.inc.php
# Default value for the secuirty level with each session.
# $_DVWA[ 'default_security_level' ] = 'impossible';
$_DVWA[ 'default_security_level' ] = 'low';
场景: 带cookie扫描
&url&: &http://192.168.1.129/dvwa/vulnerabilities/csrf/&,
&checks&: [
// 只扫描 csrf
&audit&: { // 只扫描表单字段
&forms&: true,
&cookies&: false,
&headers&: false
&scope&: {
&page_limit&: 4,
// 限制爬虫数
&exclude_path_patterns&: [ // 不扫描的页面
&security&,
&cookie_string&: &security= path=/, PHPSESSID=6oes10c6fem520jid06tv40i16; path=/&
扫描说明:
checks:仅扫描 csrf
audit:扫描 form 表单,但不扫描 cookie 和 header
scope:限制爬取页面数为 4,不扫描 logout 等会导致 cookie 失效的页面
http: 设置请求的 cookie,这里需要注意的是,每个 cookie 项后都有一个 path 属性,指定作用域。因为如果不指定,cookie 的作用域就是 url 中的 path,比如这里为 /dvwa/vulnerabilities/csrf/,这个时候如果在爬取过程中,爬取到其父路径,请求就不会带上 cookie,导致 server 返回 set-cookie 响应头,覆盖原有 cookie,导致会话失效,所以这里最好设置成根目录 /。
场景: 自动登录扫描
&url&: &http://192.168.1.129/dvwa/vulnerabilities/sqli/&,
&checks&: [
&sql_injection&
&audit&: {
&forms&: true,
&cookies&: false,
&headers&: false
&scope&: {
&page_limit&: 5,
&exclude_path_patterns&: [
&security&,
&plugins&: {
&autologin&: {
&url&: &http://192.168.1.129/dvwa/login.php&,
&parameters&: &username=admin&password=password&Login=Login&,
&check&: &PHPIDS&
&session&: {
&check_url&: &http://192.168.1.129/dvwa/index.php&,
&check_pattern&: &PHPIDS&
扫描说明:
checks:仅扫描 sql_injection
audit:扫描 form 表单,但不扫描 cookie 和 header
scope:限制爬取页面数为 5,不扫描 logout 等会导致 cookie 失效的页面
plugins & session:使用自动登录插件,url 为登录入口,parameters 为登录需要的参数,格式为 query_sting,通过响应中是否包含 check 的内容来来判断是否登录成功,因为 DVWA 登录成功后返回的是302跳转,响应body为空,导致check失败,此时可以通过配置 session 下的 check_url 和 check_pattern 来实现(引擎会优先使用 session 下的配置),这里检查 index 页面为是否包含 PHPIDS 来判断是否登录成功
场景:指定请求参数对接口进行扫描
当通过设置代理的方式收集到请求信息后, 需要根据请求中的参数来扫描,请求分为 GET 和 POST
Arachni 提供了 vector feed plugin,比如在 DVWA 中,Command Injection 的请求方法是 POST
http://192.168.1.129/dvwa/vulnerabilities/exec/
ip=123&Submit=Submit
&url&: &http://192.168.1.129/dvwa/vulnerabilities/exec/&,
&checks&: [
&os_cmd_injection*&
&audit&: {
&forms&: true,
&headers&: false,
&cookies&: false,
&jsons&: true,
&ui_forms&: true,
&links&: true,
&xmls&: true,
&ui_inputs&: true
&cookie_string&: &security= path=/, PHPSESSID=nrd253e2fkqlq8celpkfj9vmn4; path=/&
&scope&: {
&page_limit&: 0
&plugins&: {
&vector_feed&: {
&yaml_string&: &type: form\nmethod: post\naction: http://192.168.1.129/dvwa/vulnerabilities/exec/\ninputs:\n
Submit: Submit\n&
扫描说明:
checks:仅扫描 os_cmd_injection
audit:扫描 form 表单,但不扫描 cookie 和 header
http: 设置请求的 cookie_string
scope:这里 page_limit 需要设置为 0,如果设置为 1 ,则不会进行扫描
plugins :使用 vector_feed 插件,参数为 yaml_string ,即符合 YAML 语法的字符串。这里解释一下如何生成这个值
首先把字符串在 python 命令中打印出来
&&& print &type: form\nmethod: post\naction: http://192.168.1.129/dvwa/vulnerabilities/exec/\ninputs:\n
Submit: Submit\n&
type: form
method: post
action: http://192.168.1.129/dvwa/vulnerabilities/exec/
Submit: Submit
对应字段如下:
action: 请求的url
method: 请求方法为 post
type: 请求body的类型,这里为表单所以为 form,如果body是 json 的话,这里需要设置为 json
inputs: 请求的参数,这里有两个参数 ip 和 Submit
在 YAML 缩进是很重要的,对于 type 为 json 时,因为 值可能会为一个object,比如
&key1&: &value1&,
&key3&: &value3&
那么生成的 YAML 就为:
key1: value1
key3: value3
可以看到 key3 前面有空格。
这个转换过程可以使用 YAML 库来进行转换,比如在 python 中可以使用 pyyaml 库的 yaml.safe_dump 方法,将 dict 转为 yaml string:
post_body['plugins'] = {
&vector_feed&: {
# http://pyyaml.org/wiki/PyYAMLDocumentation
&yaml_string&: yaml.safe_dump(yaml_json, default_flow_style=False)
对于 GET 的请求,请求参数是在 url 的 query string 中的,可以直接设置 url 属性,此时 page_limit 需要设置成 1。
因为 page_limit 的值在使用和不适用插件时的含义有所不同,这里为了避免这个问题,对于 GET 也推荐使用 vector_feed 来配置
这里以 DVWA 的 sql注入为例
&url&: &http://192.168.1.129/dvwa/vulnerabilities/sqli/?id=111&Submit=Submit#&,
&checks&: [
&sql_injection&
&audit&: {
&headers&: false,
&cookies&: false,
&links&: true
&cookie_string&: &security= path=/, PHPSESSID=nrd253e2fkqlq8celpkfj9vmn4; path=/&
&scope&: {
&page_limit&: 0
&plugins&: {
&vector_feed&: {
&yaml_string&: &action: http://192.168.1.129/dvwa/vulnerabilities/sqli/\ninputs:\n
Submit: Submit\n&
扫描说明:
checks:仅扫描 sql_injection
audit:因为是 GET ,所以这里设置扫描 links ,但不扫描 cookie 和 header
http: 设置请求的 cookie
scope:这里 page_limit 需要设置为 0,如果设置为 1 ,则不会进行扫描
plugins :使用 vector_feed 插件,参数为 yaml_string ,即符合 YAML 语法的字符串。GET 的情况需要的参数少一些
&&& print &action: http://192.168.1.129/dvwa/vulnerabilities/sqli/\ninputs:\n
Submit: Submit\n&
action: http://192.168.1.129/dvwa/vulnerabilities/sqli/
Submit: Submit
只需要设置 action 和 inputs 即可
对于查看扫描进度,暂停,删除扫描的 API 都比较简单,这里就不详细介绍了。
扫描完成后,可以通过如下 API 来获取指定格式的报告,支持多种格式
GET /scans/:id/report
GET /scans/:id/report.json
GET /scans/:id/report.xml
GET /scans/:id/report.yaml
GET /scans/:id/report.html.zip
扫出的问题在响应的 issues 部分
0x04 二次开发 & 打包
如果在使用过程中遇到bug和误报,想进行调试或修改,可以自己搭建开发环境进行调试和修改
开发环境设置
参考 wiki 的
需要装以下依赖
Ruby 2.2.0 up to 2.3.3.
libcurl with OpenSSL support.
C/C++ compilers and GNU make in order to build the necessary extensions.
git clone git://github.com/Arachni/arachni.git
cd arachni
# 替换成国内源
gem sources --add https://gems.ruby-china.org/ --remove https://rubygems.org/
gem install bundler # Use sudo if you get permission errors.
bundle install --without prof
# To resolve possible dev dependencies.
./bin/Arachni_rest_server
--address 0.0.0.0 --port 8888
直接修改代码,然后创建扫描任务就可以进行测试,日志在 logs 目录下
参考 [Development-environment][10] ,这里说下我的步骤
把以下三个依赖的项目拉到公司的 gitlab
需要修改的地方有以下几个地方
修改 arachni-ui-web 的Gemfile,将以下部分
gem 'arachni' , '~& 1.5'
替换成 gitlab 的地址,推荐用 ssh
gem 'arachni', :git =& 'ssh://xxxxxxxx/arachni.git', :branch =& 'master'
修改 build-scripts 的 lib/setenv.sh ,将以下部分
export ARACHNI_BUILD_BRANCH=&experimental&
export ARACHNI_TARBALL_URL=&https://github.com/Arachni/arachni-ui-web/archive/$ARACHNI_BUILD_BRANCH.tar.gz&
修改成 gitlab arachni-ui-web 的仓库分支 和 代码下载地址
# gitlab 仓库分支
export ARACHNI_BUILD_BRANCH=&master&
# gitlab arachni-ui-web 的代码下载地址,需要为 tar.gz
export ARACHNI_TARBALL_URL=&http://xxxxxxxx/arachni-ui-web/repository/archive.tar.gz?ref=master&
运行打包命令
bash build_and_package.sh
如果下载依赖过程中,遇到网速问题,可以配合 proxychains 。这里说一下,脚本执行过程中中断,再次运行会从上次中断的地方开始,因为打包过程需要从内网 gitlab 拉代码,所以记得下载依赖包后,停止,去掉 proxychains,然后再运行
提供的参数较多,文中只针对常见和比较重要的部分进行了分析和介绍,希望能在构建自动化黑盒扫描平台时,给大家提供一些参考。
另外,如果哪里有写的不对或者不准确的地方,也欢迎大家指出。
本文由 安全客 原创发布,如需转载请注明来源及本文地址。
本文地址:http://bobao.360.cn/learning/detail/3533.html
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致}

我要回帖

更多关于 登录界面怎么做 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信