SelfCheck_AI 1. 기획서

Meustar·2026년 1월 22일

Project

목록 보기
1/15

📌 AI 기반 자소서 첨삭 및 검증 서비스 기획서

1. 프로젝트 개요

1-1. 프로젝트명

AI 자소서 첨삭 및 평가 서비스 (가칭: SelfCheck AI)

1-2. 기획 배경

취업 준비 과정에서 자기소개서는 중요한 평가 요소지만,

  • 첨삭 기준이 불명확하고
  • 피드백의 일관성이 부족하며
  • 반복 수정에 많은 시간이 소요된다.

기존 AI 자소서 서비스는 문장 생성·첨삭에 집중되어 있으며,

“이 자소서가 얼마나 잘 썼는지”에 대한 객관적 검증 기능은 부족하다.

이에 본 프로젝트는 LLM을 활용해 자소서를 첨삭함과 동시에, 평가 기준 기반 검증을 제공하는 서비스를 목표로 한다.


2. 프로젝트 목표

  • 자소서를 정량적·구조적으로 평가
  • 사용자에게 명확한 개선 방향 제시
  • “잘 쓴 자소서”의 기준을 시각적으로 제공

👉 단순 생성이 아닌 검증 중심 AI 서비스 구현


3. 주요 기능

3-1. 자소서 입력 및 첨삭

  • 사용자가 자소서 문항과 답변 입력
  • LLM이 문장 표현 개선 및 구조 보완
  • 원문 대비 개선 포인트 제공

3-2. 평가 항목 기반 검증 (핵심 기능)

자소서를 아래 4가지 평가 항목으로 검증한다.

  1. 직무 적합성
    • 직무 이해도
    • 경험과 직무의 연관성
  2. 문제 해결력
    • 문제 인식 여부
    • 해결 과정의 논리성
    • 결과 및 성과 제시 여부
  3. 성장 가능성
    • 학습 경험
    • 피드백 수용 및 개선 의지
  4. 의사소통
    • 문장 명확성
    • 구조적 서술
    • 가독성

각 항목별로:

  • 점수(0~100점)
  • 부족한 이유
  • 개선 방향을 제공

3-3. 위험 요소 탐지

  • 추상적 표현 과다 사용
  • 질문 미응답
  • 근거 없는 주장
  • 과도한 미사여구

→ 사용자에게 “주의 필요”로 표시


3-4. 재첨삭 추천

  • 특정 항목 점수 미달 시
  • 자동 재첨삭 또는 수정 가이드 제공

4. 검증 방식 설계

4-1. 이중 LLM 구조

  • LLM A: 자소서 첨삭 및 개선
  • LLM B: 평가자 역할 수행 (검증 전용)

👉 생성과 평가를 분리하여 신뢰도 확보


4-2. 규칙 기반 검증

  • 글자 수 초과/미달
  • 금지 표현 리스트 검사
  • 문항 키워드 포함 여부

4-3. 평가 결과 활용

  • 평균 점수 기준 PASS / 개선 필요 판단
  • 항목별 점수 시각화 (그래프)

5. 시스템 아키텍처

[사용자]
   ↓
[Streamlit UI]
   ↓
[LLM 첨삭 API]
   ↓
[LLM 검증 API]
   ↓
[규칙 기반 필터]
   ↓
[결과 시각화]

6. 기술 스택

구분기술
Frontendreact.js
Backendjava, spring boot
LLMOpenAI API (GPT 계열)
검증 로직Rule-based + LLM 평가
배포Streamlit Cloud / Local

7. 기대 효과

  • 사용자:
    • 자소서 품질을 객관적으로 인식
    • 반복 수정에 대한 명확한 기준 확보
  • 서비스 측면:
    • 기존 생성형 AI와 차별화
    • 검증 중심 구조로 신뢰도 상승

8. 확장 계획

  • 직무별 평가 기준 세분화
  • 기업/직군 맞춤 평가 템플릿 제공
  • 면접 질문 자동 생성 연계
  • 자소서 버전 관리 기능

9. 한계 및 고려 사항

  • AI 평가의 주관성 존재
  • “합격 보장”이 아닌 참고용 평가임을 명시
  • 개인정보 보호 및 데이터 저장 최소화

10. 결론

본 프로젝트는

LLM을 단순한 글쓰기 도구가 아닌, 평가자 역할로 확장하여

자소서 첨삭의 새로운 방향을 제시한다.

“잘 써줬는가?”가 아니라

“잘 썼는지 검증해주는 AI”를 목표로 한다.

11. 고도화 기능 및 확장 시나리오

11-1. 자소서 기반 모의 면접 기능 (LLM Interviewer)

기능 개요

사용자가 작성한 자소서를 기반으로

AI 면접관이 질문을 생성하고, 답변을 평가하는 모의 면접 기능을 제공한다.

기능 흐름

자소서 분석
   ↓
핵심 경험 / 약점 추출
   ↓
맞춤 면접 질문 생성
   ↓
사용자 답변 입력
   ↓
답변 평가 및 피드백

질문 유형

  • 경험 심화 질문

    “이 프로젝트에서 본인의 역할을 더 구체적으로 설명해 주세요.”

  • 약점 보완 질문

    “성과가 수치로 드러나지 않는데, 어떻게 설득하시겠습니까?”

  • 인성/태도 질문

    “팀 내 갈등 상황에서 어떻게 행동했나요?”

답변 평가 기준

  • 질문 이해도
  • 논리 구조
  • 자소서 내용과의 일관성
  • 구체성 및 설득력

👉 자소서 첨삭 → 면접까지 이어지는 자연스러운 사용자 여정 구성


11-2. 음성 기반 모의 면접 기능 (Speech Interview)

기능 개요

텍스트 입력이 아닌 음성 기반 면접 환경을 제공하여

실제 면접과 유사한 경험을 제공한다.

주요 기능

  • 음성 질문 출력 (TTS)
  • 사용자 음성 답변 입력 (STT)
  • 답변 내용 텍스트 변환 후 평가
  • 말버릇 / 답변 길이 / 침묵 시간 분석

평가 요소 예시

  • 답변 속도 (너무 빠르거나 느린지)
  • 반복 표현 (“음…”, “약간…”)
  • 핵심 질문 미응답 여부

👉 단순 글쓰기 AI를 넘어 실전 대비 도구로 확장


11-3. RAG 기반 평가 신뢰도 강화

도입 목적

LLM 평가의 주관성을 줄이고,

“왜 이렇게 평가했는지” 근거를 명확히 제시하기 위함.

RAG 적용 대상

  • 자소서 평가 기준 문서
  • 기업 인재상 예시
  • 실제 면접 평가 항목 샘플

활용 방식

평가 질문
   ↓
평가 기준 문서 검색 (RAG)
   ↓
관련 기준 문단 추출
   ↓
LLM 평가 + 근거 문장 제시

사용자 제공 정보

  • 점수
  • 평가 근거 문장
  • 기준 출처 요약

👉 “AI가 이렇게 말한 이유”를 설명 가능한 구조


11-4. Agent 기반 면접 시나리오 진행

Agent 도입 목적

단발성 질문이 아닌,

상황에 따라 질문을 바꾸는 면접관 역할 구현

Agent 역할

  • 이전 답변 분석
  • 약점 발견 시 추가 질문
  • 답변이 모호할 경우 재질문

예시 시나리오

Q1. 프로젝트 경험 질문
 → 답변 모호
Q2. 역할 재질문
 → 수치 부족
Q3. 성과 정량화 요구

👉 실제 면접처럼 대화 흐름을 기억하고 판단하는 AI 면접관

profile
유튜브 기술 영상을 보면서 잘 이해하기 위해... Lilys AI를 활용해 배경지식, 영상 전체 요약 및 핵심 내용 설명들을 블로깅 합니다. 작성한 내용들에 대해서 언제고 다시 "내가" 찾아 볼 수 있도록 기록으로 남깁니다!

0개의 댓글