디렉토리, 디렉토리 인덱싱을 알아내면 뭘 할 수 있는지
-> 해당 자원으로 접근해서 중요 문서(사용자 정보 등)의 내용을 볼 수 있음
(중요 문서, 사용자 관련 파일, 백업 파일, 테스트 파일 등)
보안 관련 헤더가 무엇이 있는지
User-Agent 헤더가 뭔지
기본 설치 파일? 확인하기
웹 취약점 자동 스캐닝
nikto -host {ip or dns}:{port}
웹 애플리케이션 매핑
수동 매핑
직접 애플리케이션의 메뉴 이것저것 눌러보면서 버프스위트를 확인.
어떤 url과 파라미터들이 전송되는지 보며 애플리케이션의 구조를 파악하는 과정
크롤링
크롤링: 웹 페이지의 링크를 분석하여 새로운 웹 페이지를 찾아내는 과정이라고 함
버프 스위트의 스파이더 기능으로 크롤링 가능하다고 함
DirBuster?
robots.txt
robots.txt를 최상위 디렉토리에 위치시켜서 웹 로봇?에게 해당 사이트의 정보 수집을 허용/불허할 수 있음
User-Agent 요청 헤더로 특정 로봇에게 명령을 내릴 수 있다고 함..
명령을 따를지 말지는 robot의 마음이라고 함..(불법적인 로봇들)
그래서 robot.txt로 보안 정책 적용하려고 하면 안 된다고 함