priess1314 发表于 2020-2-21 18:06:17

Python爬虫 获取网站所有的网址

本帖最后由 priess1314 于 2020-2-21 18:08 编辑

最近几天,闲来无事研究了Python爬虫。写了一个简单的脚本,来看看效果吧!




import os
import re
import shutil

REJECT_FILETYPE = 'rar,7z,css,js,jpg,jpeg,gif,bmp,png,swf,exe'

def getinfo(webaddress):   
    global REJECT_FILETYPE
    url = 'http://'+webaddress+'/'
    print 'Getting>>>>> '+url
    websitefilepath = os.path.abspath('.')+'/'+webaddress   
    if os.path.exists(websitefilepath):   
      shutil.rmtree(websitefilepath)   
    outputfilepath = os.path.abspath('.')+'/'+'output.txt'   
    fobj = open(outputfilepath,'w+')
    command = 'wget -r -m -nv --reject='+REJECT_FILETYPE+' -o '+outputfilepath+' '+url
    tmp0 = os.popen(command).readlines()
    print >> fobj,tmp0
    allinfo = fobj.read()
    target_url = re.compile(r'\".*?\"',re.DOTALL).findall(allinfo)
    printtarget_url
    target_num = len(target_url)
    fobj1 = open('result.txt','w')   
    for i in range(target_num):
      if len(target_url)<70:   
         print >> fobj1,target_url   
      else:
          print "NO"
    fobj.close()
    fobj1.close()
    if os.path.exists(outputfilepath):   
      os.remove(outputfilepath)
   
if __name__=="__main__":
    webaddress = raw_input("Input the Website Address(without \"http:\")>")
    getinfo(webaddress)
    print "Well Done."

这里,我已逍遥子大表哥的博客为例。效果如下:

mdf3192078 发表于 2020-2-21 21:56:26

爬虫需谨慎,有个朋友因为提供爬虫技术爬了一个游戏网站,结果行政拘留7天,罚款5000

qq669166084 发表于 2020-2-23 11:50:38

你好,有会渗透吗
页: [1]
查看完整版本: Python爬虫 获取网站所有的网址