Innholdsfortegnelse:
- Crawlers
- Du kan bruke tre hovedtiltak mot å ha filer som er kompromittert via skadelige katalogoverskridelser:
Video: SCP-4730 Earth, Crucified | keter | extradimensional scp 2025
Directory traversal er en virkelig grunnleggende svakhet, men det kan vise seg å være interessant - noen ganger sensitiv - informasjon om et websystem, noe som gjør den utsatt for hack. Dette angrepet innebærer å surfe på et nettsted og lete etter ledetråder om serverens katalogstruktur og sensitive filer som kan ha blitt lastet med vilje eller utilsiktet.
Utfør følgende tester for å finne informasjon om nettstedets katalogstruktur.
Crawlers
Et edderkoppprogram, som den gratis HTTrack-nettstedet Kopimaskin, kan gjennomsøke nettstedet ditt for å se etter all offentligheten som er tilgjengelig. For å bruke HTTrack, bare last det, gi prosjektet ditt et navn, fortell HTTrack hvilke nettsider som skal speil, og etter noen få minutter, muligens timer, har du alt som er offentlig tilgjengelig på nettstedet som er lagret på din lokale stasjon i c: Mine nettsteder.
Kompliserte nettsteder avslører ofte mer informasjon som ikke burde være der, inkludert gamle datafiler og selv applikasjonsskript og kildekoden.
Uansett, når du utfører websikkerhetsvurderinger, er det vanligvis. zip eller. rar filer på webservere. Noen ganger inneholder de søppel, men de holder ofte sensitiv informasjon som ikke burde være tilgjengelig for publikum.
Se på utgangen av ditt gjennomsøkingsprogram for å se hvilke filer som er tilgjengelige. Vanlige HTML- og PDF-filer er sannsynligvis greit fordi de mest sannsynlig er nødvendige for normal webbruk. Men det ville ikke skade for å åpne hver fil for å sikre at den tilhører det og ikke inneholder sensitiv informasjon du ikke vil dele med verden.
Google kan også brukes til katalogtraversal. Faktisk er Googles avanserte spørringer så kraftige at du kan bruke dem til å utrydde sensitiv informasjon, kritiske webserverfiler og kataloger, kredittkortnumre, webkameraer - i utgangspunktet alt som Google har oppdaget på nettstedet ditt - uten å måtte speile nettstedet ditt og sikt gjennom alt manuelt. Den sitter allerede der i Googles cache og venter på å bli vist.
Følgende er et par avanserte Google-spørringer som du kan skrive direkte inn i Googles søkefelt:
-
nettsted: vertsnavn søkeord - Denne søken søker etter hvilket som helst søkeord du lister, for eksempel SSN <, konfidensielt , kredittkort, og så videre. Et eksempel er: nettsted: www. principlelogic. com-høyttaler
filtype: filtypenavn: vertsnavn
-
- Denne søken søker etter bestemte filtyper på et bestemt nettsted, for eksempel doc, pdf, db, dbf, zip og mer.Disse filtyper kan inneholde sensitiv informasjon. Et eksempel er: filetype: pdf-side: www. principlelogic. com
Andre avanserte Google-operatører inkluderer følgende:
allintitle
-
søker etter nøkkelord i tittelen på en nettside. inurl
-
søker etter nøkkelord i nettadressen til en nettside. relatert
-
finner sider som ligner denne nettsiden. link
-
viser andre nettsteder som lenker til denne nettsiden. En utmerket ressurs for Google hacking er Johnny Longs Google Hacking Database.
Når du siver gjennom nettstedet ditt med Google, må du passe på å finne sensitiv informasjon om serverne, nettverket og organisasjonen i Google Grupper, som er Usenet-arkivet. Hvis du finner noe som ikke trenger å være der, kan du jobbe med Google for å få det redigert eller fjernet. For mer informasjon, se Googles Kontakt oss side.
Tiltak mot katalogoverskridelser
Du kan bruke tre hovedtiltak mot å ha filer som er kompromittert via skadelige katalogoverskridelser:
Ikke lagre gamle, sensitive eller ellers ikke-offentlige filer på din webserver.
-
De eneste filene som skal være i mappen / htdocs eller DocumentRoot er de som trengs for at nettstedet skal fungere skikkelig. Disse filene bør ikke inneholde fortrolige opplysninger som du ikke vil at verden skal se. Konfigurer dine
-
roboter. txt -fil for å forhindre at søkemotorer, for eksempel Google, gjennomsøker de sensitive områdene på nettstedet ditt. Kontroller at webserveren er riktig konfigurert for å tillate offentlig tilgang til bare de katalogene som trengs for at nettstedet skal fungere.
-
Minimumsprivilegier er nøkkelen her, så gi tilgang til bare filene og katalogene som trengs for at webapplikasjonen skal kunne fungere riktig. Se dokumentasjonen til webserveren din for å få instruksjoner om hvordan du kontrollerer allmenn tilgang. Avhengig av webserverversjonen, er disse tilgangskontrollene satt i
httpd. conf fil og. htaccess-filer for Apache.
-
Internet Information Services Manager for IIS
-
De nyeste versjonene av disse webserverne har som standard god sikkerhetskopiering, så sørg for at du kjører de nyeste versjonene, hvis det er mulig.
-
Endelig vurdere å bruke en søkemotor honeypot, for eksempel Google Hack Honeypot. En honeypot trekker inn ondsinnede brukere, slik at du kan se hvordan de slemmene jobber mot nettstedet ditt. Deretter kan du bruke kunnskapen du får for å holde dem i sjakk.
