-
Web安全--一些DOS命令
前言:被遗忘的笔记。一些DOS命令 目录: DOS命令01 DOS命令02 DOS命令03 总结DOS命令01: 命令 说明 net use \ip\ipc$ “ “ /user:” “ 建立IPC空链接 net use \ip\ipc$ “密码” /user:”用户名” 建立IPC非空链接 net use h: \ip\c$ “密码” /use...…
-
Python爬虫--Scrapy框架基础
前言:前面一章讲了 Scrapy 安装 ,现在总结一下 Scrapy框架基本使用 目录: 指令介绍 目录结构 爬虫工作流程 项目指令 总结指令介绍:打开 cmd 窗口 输入 scrapy -h 即可查看指令 指令 功能 bench 项目指令,一般在项目里面运行的指令 fetch 获取某个网页的信息,使用此指令可以网页到本地 genspider...…
-
Python爬虫--Scrapy框架安装
前言:Scrapy框架安装 ,Scrapy 是 Python 领域专业的爬虫开发框架,已经完成爬虫程序的大部分通用工具 它使用了 Twisted 异步网络库来处理网络通讯。整体架构大致如下 目录: 第一步:挂小灰机或者将要安装的文件下载到本地 第二步:升级pip 第三步:安装wheel 第四步:安装lxml 第五步:安装Twisted 第六步:安装Scrapy 总结第一步:挂小灰机或者将要安装的文件下载到本地Scrapy 框架安装踩坑中 为什么要挂小灰机呢?? 因为有些扩展包...…
-
Python爬虫--Ajax异步抓取腾讯视频评论
前言:在某些网站 ,当我们滑下去的时候才会显示出后面的内容 就像淘宝一样,滑下去才逐渐显示其他商品 这个就是采用 Ajax 做的 然后我们现在就是要编写这样的爬虫。目录: 规律分析 只抓取一页的评论 自动抓取全部评论 总结规律分析:这个时候就要用到我们的 Fiddler 了 我们需要分析加载评论的规律 首先使用火狐浏览器随便打开一个视频,注意设置好代理 然后打开 Fiddler 抓包 ,然后再点击查看更多评论,拿魔道祖师演示吧,毕竟我也喜欢看 就是这个位置 然后查看 Fiddler...…
-
两道上传题目
前言:最近帮忙看了两道上传题目, 怎么讲,学以致用吧! 前几天刚看了上传绕过的文章,现在就有了题目 顺便练习一下 目录: 第一道: 第二道: 总结 参考文献第一道:只有成功上传一个可执行的php文件才可以得到key。 用传统的手段,上传 jpg 改后缀 、 大小写或者截断这些都不行, 然后看到有提示,hint1:系统是 Windows hint2:磁盘为 NTFS 格式 然后就想到了前两天看的文章,利用 Windows 特性来绕过 这里先科普一下什么是 NTFS NTFS 即 Ne...…
-
Python爬虫--Fiddler安装与使用
前言:为什么要安装 Fiddler ,是为 Ajax 异步爬虫编写做准备 目录: Fiddler简介 Fiddler安装 Fiddler使用 总结Fiddler简介:Fiddler 是位于客户端和服务器端之间的代理,也是目前最常用的抓包工具之一 他就相当于 burp ,能够抓包的 其他的就不多介绍了。 Fiddler安装:打开官网:https://www.telerik.com/download/fiddler 然后输入信息后就可以点击 Download 下载安装包了 可能要科学上...…
-
Web安全--万能密码大全+图片马合成方法
前言:被遗忘的笔记。目录: 万能密码大全 图片马合成方法 总结万能密码大全:asp、aspx、php、jsp万能密码大全。asp、aspx 万能密码"or "a"="a')or('a'='aor 1=1--'or 1=1--a'or' 1=1--"or 1=1--'or'a'='a"or"="a'='a'or''=''or'='or'1 or '1'='1'=11 or '1'='1' or 1=1'OR 1=1%00"or 1=1%00'xorPHP 万能密码:'or 1=1/*"...…
-
Python爬虫--用户代理IP池
前言:前面一篇讲了用户 UA 代理池,现在这篇来讲下 IP 代理,相对于 UA 来说,IP 更容易被封,这里讲两种方法。目录: 方法一:本地ip池 方法二:IP接口 总结方法一:本地ip池方法一 就是将 IP 拿下来本地,然后通过随机选取或者其他来调用 这就跟之前使用 UA 差不多,只不过函数不同 这里使用 urllib.request.ProxyHandler() 方法 ProxyHandler() 函数是 来设置使用代理服务器 废话不多说,先来简单的看看 import urlli...…
-
Linux系统信息查看命令大全
前言:来自于各大论坛。 两年前的东西了,可能有些命令变了 如有错误,还请指点。目录: 系统命令 资源命令 磁盘和分区命令 网络命令 进程命令 用户命令 服务命令 程序命令 Ubuntu常用命令 文件目录类 驱动挂载类 程序安装类 源代码包安装 压缩解压类 进程控制类 程序运行类 用户帐号类 vi编辑类 网络服务 其他类 总结系统命令:unam...…
-
Python爬虫--用户代理池
前言:用户代理池的作用就是模拟不同用户请求,防止被屏蔽。目录: 用户代理池 总结用户代理池:这个池子也很简单, 就是多准备一些 ua 头就好了 废话不多说,先来简单的看看 import urllib.requestimport randomuapool = [ "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/...…
-
一道代码审计题目
前言:朋友在给客户培训,然后有个题,就帮忙看看了,也是自己学习一下吧! 题目:代码审计 PHP 是世界上最好的语言,我这样说你有意见么? Address目录: 一道代码审计题目 总结 参考文献一道代码审计题目:打开题目就显示一句话 you can't get flag! 然后听朋友讲,不管怎么扫都没有用, 代码审计的题目,一般是要看到源码才能审计的,要么是扫到源码,要么就爆出源码 那么如果扫不到,那么就爆吧! 起初查看源代码没有任何东西,根据经验,后面加个 ~ 波浪线 就能爆出源码,...…
-
Python爬虫--爬取糗事百科段子
前言:爬取糗事百科段子目录: 爬取糗事百科段子 总结爬取糗事百科段子:跟爬取豆瓣出版社名字一样 段子在 <div class="content"> 里面的 <span> 标签里面 不过这里有个坑,div 标签跟 span 标签 之间有很多空行 普通 .*? 是匹配不了的,需要使用模式修饰符 S S 的意思 让 .(点) 匹配,包括换行符 我们来爬文字的段子 先看看他的 url 有什么规律, https://www.qiushibaike.com/text/pag...…
-
Python爬虫--爬取豆瓣出版社名字
前言:爬取豆瓣出版社名字目录: 爬取豆瓣出版社名字 总结爬取豆瓣出版社名字:套路还是一样的,现在来爬取豆瓣出版社名字 就是这个东西,他在 div 里面 跟爬取 CSND 那个一样,写个正则就可以了 虽然爬取出版社名字豆瓣没有屏蔽爬虫, 但是还是来练习模拟浏览器请求吧 设置时间是防止请求过大 代码: import urllib.requestimport reimport timeurl = "https://read.douban.com/provider/all"headers =...…
-
Python爬虫--爬取CSDN博客
前言:爬取 csdn 博客目录: 爬取csdn博客 总结爬取csdn博客:直接来吧,简单粗暴, 假设我们要爬取 python 专栏的文章, 我们首先要查看他链接的规律,先抓取他的链接, 查看源代码搜索第一条内容,看看他在哪里。 我们知道他的链接在这个位置 {"mod":"popu_459","dest":" 我们查找一下其他的标题,发现链接依旧在这个位置 那么我们就可以根据这个规律来抓取链接了 跟之前的方法一样, 首先使用 urllib.request.urlopen() 函数来打开...…
-
Python爬虫--伪装成浏览器
前言:把爬虫伪装成浏览器目录: 1. 技术原理 2. 实战 总结1. 技术原理我们不讲很官方的属于, 简单的讲就是,一些论坛啊,博客啊 为防止别人爬他们的文章, 通常会判断是不是浏览器访问,如果不是那就屏蔽。2. 实战由于 urlopen() 对于一些HTTP的高级功能不支持,所以,我们如果要修改报头,也就是添加 header 可以使用 urllib.request.build_opener() 进行,当然,也可以使用 urllib.request.Request() 下的 add_...…
-
Python爬虫--异常处理
前言:异常处理。目录: 1. 异常处理概述 2. 常见状态码及含义 3. URLError与HTTPError 4. 异常处理实战 总结1. 异常处理概述程序在运行的时候难免会遇到各种各样的问题, 如果没有异常处理,那么程序遇到问题的时候就可能奔溃, 这样就非常耗时又麻烦了, 为了避免这种情况发生,就需要开发一个具备异常处理的程序。2. 常见状态码及含义 状态码 解释 301 Moved Permanen...…
-
Python爬虫--模拟HTTP请求
前言:GET 和 POST 目录: GET请求 POST请求 总结GET请求:抓取百度搜索标题使用 Urllib 库来模拟浏览器发送GET请求, 这跟 request 模块差不多, 同时用一个例子来学习它。 我们来抓取百度搜索的标题 假设我们搜索 Python 那么在 url 上应该是这样的格式 https://www.baidu.com/s?wd=python s?wd= 后面跟要搜索的内容 首先模拟 HTTP 请求 import urllib.requestkeyword = "...…
-
Python爬虫--Urllib基础
前言:Python Urllib基础 目录: 1. urlretrieve 2. urlcleanup 3. info() 4. getcode() 5. geturl() 6. 超时设置 总结1. urlretrieveUrllib 库也是类似 request 库,用来解析html的 首先讲 urlretrieve 子模块 这个模块的作用是将网页下载到本地 语法: urlretrieve(网址,本地地址) 例如: 这样就可以了,他会将百度网页下载到本地D盘下,不过图片那些可...…
-
Python爬虫--5分钟入门正则表达式
前言:Python 正则表达式 目录: 通用字符 原子表 元字符 模式修正符 贪婪模式和懒惰模式 正则表达式函数 实例1:匹配 .com 和 .cn 网址 实例2:匹配手机号 实例3:简单爬虫编写 总结通用字符: 字符 功能 \d 匹配数字,0-9 \D 匹配非数字,也就是匹配不是数字的字符 \s 匹配空白符,也就是 空格 ...…
-
Python从0到POC编写--实用小脚本02
前言:一些实用小脚本02。目录: 爆破脚本 文件监控 总结爆破脚本:爆破脚本也是我们经常使用的东西 这里就简单讲讲后台爆破脚本的编写吧 在编写之前,我们先通过访问网站去看看情况 首先我们可以先登录看看 输入账号 admin ,密码 12345 后 登录失败,提示 用户名或密码错误 在输入正确的密码 123456 后,则会跳到用户界面 然后我们可以通过这个信息去判断是否登录成功 现在我们有了登录密码,有了判断是否登录成功的信息 还有就是如何构造 post 包 我们可以先用 burp 抓...…