Ha az ember keres általában talál :) Amikor böngészünk egy weboldalt ki tudja hány olyan oldal lehet
elérhető amiről a készítők azt gondolják hogy nem fogjuk megtalálni.
Erre vannak jó programok mint pl a DirBuster, de mi most írunk egyet. Ez szintén kis gondolat ébresztő lesz, hiszen ha ez megy
akkor sokkal összetettebb keresőket is tudunk írni - amik mondjuk a megtalált oldalak tartalmában is tudnak keresni... esetleg sérülékenységet
Lássuk a kódot:
import requests
url = "http://.... az oldal cime....."
oldal = ['index', 'login', 'admin', 'administrator', 'kezdolap', 'start', 'shop', 'demo']
kiterjesztes = ['html', 'php', 'htm']
for i in oldal:
for j in kiterjesztes:
test_url = url + "/" + i + "." + j
request = requests.get(test_url)
if request.status_code == 200:
print(test_url + " + letezik")
az oldal[] -t most én adta meg, mert kipróbálásra egyszerűbb ha így csináljuk de neten számtalan előre legenerált oldal, könytár, fájlnév
lista van txt-ben amiből hatékonyabb kiolvasni a dolgokat. A kiterjesztést szabadon lehet bővíteni, szűkiteni, lekorlátozni.
Nagyon egyszerű, nagyon alap, de működik és nyugodtan túl lehet gondolni!