슈퍼타입/서브타입 데이터 모델, 흔히 확장된 ER 모델(Extended ER Model)이라고도 불리며, 데이터 모델링에서 자주 사용되는 방법이다. 이 모델링 기법은 다음과 같은 이유로 유용하다.
이러한 장점 때문에 많은 프로젝트에서 슈퍼타입/서브타입 모델을 활용한다. 주로 분석 단계에서 사용되며, 물리적인 데이터 모델로 전환할 때는 일정한 기준에 따라 변환해야 한다. 하지만 실제 프로젝트 현장에서는 변환 방법에 대한 명확한 지침이 없어서 1:1로 변환하거나 하나의 테이블로 구성하는 경우가 많다. 이는 성능 저하의 원인이 될 수 있다.

슈퍼타입과 서브타입의 모델을 성능을 고려하여 변환하는 방법은 다음과 같은 세 가지 경우의 수로 설명할 수 있다.
따라서 성능을 고려하여 슈퍼타입/서브타입 모델을 변환할 때는 다음과 같은 기준을 고려해야 한다.

슈퍼타입/서브타입 데이터 모델을 논리적인 데이터 모델에서 물리적인 데이터 모델로 변환할 때 주로 발생하는 트랜잭션 유형을 검토해야 한다. 데이터량이 적으면(예: 10만 건 이하) 전체를 하나의 테이블로 묶어도 괜찮다. 그러나 데이터량이 많고 지속적으로 증가하면 성능을 고려하여 적절히 변환해야 한다. 여기서는 세 가지 변환 유형에 대해 설명한다.
업무적으로 트랜잭션이 슈퍼타입과 서브타입 각각에 대해 발생하는 경우, 각 유형에 대해 개별 테이블로 구성한다.

위의 업무화면을 보면 공통으로 처리하는 슈퍼타입테이블인 당사자 정보를 미리 조회하고 원하는 내용을 클릭하면 거기에 따라서 서브타입인 세부적인 정보 즉 이해관계인, 매수인, 대리인에 대한 내용을 조회하는 형식이다. 즉 슈퍼타입이 각 서브타입에 대해 기준역할을 하는 형식으로 사용할 때 이러한 유형의 트랜잭션이 발생이 된다.
예를 들어, 공통 정보를 조회한 후 클릭에 따라 세부 정보를 조회하는 형태이다. 이 경우 슈퍼타입은 공통 정보만, 서브타입은 세부 정보만 포함하도록 1:1 관계를 유지하는 것이 좋다. 데이터량이 많을 때, 슈퍼타입의 속성이 많아 디스크 I/O가 증가하는 것을 방지하기 위해 이 방법을 사용한다.
슈퍼타입과 서브타입이 모두 하나의 테이블로 통합된 경우, 데이터량이 많아 불필요한 성능 저하가 발생할 수 있다. 예를 들어, 매수인 500만 건, 이해관계인 500만 건, 대리인 10만 건의 데이터가 있을 때, 대리인 데이터만 처리해야 할 경우에도 전체 1,010만 건을 읽어야 한다.
이 경우 슈퍼타입과 서브타입을 묶어 트랜잭션이 발생하는 경우에는 슈퍼타입과 각 서브타입을 하나로 묶어 별도의 테이블로 구성하는 것이 효율적이다.

데이터를 처리할 때 대리인, 매수인, 이해관계인을 항상 통합하여 처리하는 경우, 개별로 분리하면 불필요한 조인이나 UNION ALL 연산으로 성능이 저하될 수 있다.
이 경우 성능 향상이 필요하면 하나의 테이블로 통합하여 구성한다. 속성별 제약사항을 정확히 지정하지 못할지라도 대용량 데이터 처리와 성능 향상을 위해서 하나의 테이블로 만드는 것이 바람직하다.
실제 프로젝트에서는 혼합된 트랜잭션 유형이 발생할 수 있다. 이 경우에는 가장 빈번하게 발생하는 트랜잭션 유형에 맞추어 테이블을 구성한다.

다양한 변환 모델의 성능은 트랜잭션의 유형에 따라 다를 수 있다. 따라서 변환 모델의 선택은 데이터베이스에 발생하는 트랜잭션 유형을 철저히 분석하여 결정해야 한다.
데이터베이스에서 데이터를 효과적으로 조회하기 위해 인덱스를 사용한다. 일반적으로 많이 사용되는 인덱스 구조는 균형 잡힌 트리 구조(B*Tree)이다. 이 구조를 이해하고 이를 바탕으로 데이터베이스를 설계하면 성능을 향상시킬 수 있다. 특히, PK(Primary Key)와 FK(Foreign Key) 칼럼 순서를 적절히 설정하는 것이 중요하다.


위 그림에서 보면 테이블에서 데이터 모델의 PK순서에 따라 DDL이 그대로 생성이 되고 테이블의 데이터가 주문번호가 가장먼저 정렬되고 그에 따라 주문일자가 정렬이 되고 마지막으로 주문목록코드가 정렬되는 것을 알 수 있다. 이러한 정렬 구조로 인해 데이터를 접근하는 트랜잭션의 조건에 따라 다른 인덱스 접근방식을 보여주게 된다.

맨 앞에 있는 인덱스 칼럼에 대해 조회 조건이 들어올 때 데이터를 접근하는 방법은 위와 같다. 인덱스의 정렬된 첫 번째 칼럼에 비교가 되었기 때문에 순차적으로 데이터를 찾아가게 된다. 맨 앞에 있는 칼럼이 제외된 상태에서 데이터를 조회 할 경우 데이터를 비교하는 범위가 매우 넓어지게 되어 성능 저하를 유발하게 된다.

위 예에서는 주문번호에 대한 비교값이 들어오지 않으므로 인해 인덱스 전체를 읽어야만 원하는 데이터를 찾을 수 있게 된다. 이러한 이유로 인덱스를 읽고 테이블 블록에서 읽어 처리하는데 I/O가 많이 발생하게 되므로 옵티마이저는 차라리 테이블에 가서 전체를 읽는 방식으로 처리하게 된다.
이러한 모습으로 인덱스의 정렬구조를 이해한 상태에서 인덱스에 접근하는 접근유형을 비교해보면 어떠한 인덱스를 태워야 하는지 어떠한 조건이 들어와야 데이터를 처리하는 양을 줄여 성능을 향상시킬 수 있는지 알 수 있게 된다.
정리하면, PK의 순서를 인덱스 특징에 맞게 고려하지 않고 바로 그대로 생성하게 되면, 테이블에 접근하는 트랜잭션의 특징에 효율적이지 않은 인덱스가 생성되어 있으므로 인덱스의 범위를 넓게 이용하거나 Full Scan을 유발하게 되어 성능이 저하된다고 정리할 수 있다.
프로젝트에서 발생할 수 있는 PK와 FK의 성능 저하 문제를 예로 들어 설명하면 다음과 같다.
예시: 입시마스터 테이블
입시마스터 테이블의 PK는 수험번호 + 년도 + 학기로 구성되어 있고, 이 테이블은 전형과목실적 테이블의 상속 구조를 가진다. 데이터는 200만 건, 5년간 학기당 평균 2만 건으로 구성된다.

-- 문제점
SELECT COUNT(수험번호) FROM 입시마스터 WHERE 년도 = '2008' AND 학기 = '1'
입시마스터_I01 인덱스가 수험번호 + 년도 + 학기 순으로 생성되어 있을 경우, WHERE 절에 수험번호 값이 들어오지 않으므로 인덱스를 사용할 수 없게 되어 FULL TABLE SCAN이 발생하게 된다. 이는 200만 건의 데이터를 모두 읽어 성능 저하를 유발한다.

예시: 현금출급기실적 테이블
현금출급기실적 테이블의 PK는 거래일자 + 사무소코드로 구성되어 있다. SQL 구문에서 사무소코드는 =로, 거래일자는 BETWEEN으로 조회된다.

--문제점
SELECT 건수, 금액 FROM 현금출급기실적 WHERE 거래일자 BETWEEN '20040701' AND '20040702' AND 사무소코드 = '000368'
거래일자 + 사무소코드 순으로 인덱스를 구성하면 거래일자가 인덱스의 앞부분에 위치하게 되어 범위가 넓어진다. 이는 인덱스를 비효율적으로 사용하게 되어 성능이 저하된다.

PK/FK 칼럼의 순서는 데이터베이스 성능에 큰 영향을 미친다. PK 순서를 적절히 설정하지 않으면 인덱스를 비효율적으로 사용하게 되어 성능이 저하된다. 반대로, 인덱스 특성을 고려하여 PK 순서를 최적화하면 성능을 크게 향상시킬 수 있다. 성능 최적화를 위해서는 인덱스의 정렬 구조를 이해하고, 트랜잭션의 접근 방식을 고려한 인덱스 설계가 필요하다.
FK (Foreign Key) 제약은 두 테이블 간의 참조 무결성을 유지하는 데 사용된다. 물리적인 테이블에 FK 제약을 설정하지 않더라도 데이터 모델 관계에 의해 상속받은 FK 속성은 SQL WHERE 절에서 조인으로 많이 사용된다. 이러한 FK 속성에 인덱스를 생성하면 성능을 크게 향상시킬 수 있다.

FULL TABLE SCAN을 수행하게 되어 성능이 저하된다.SELECT *
FROM 수강신청
JOIN 학사기준 ON 수강신청.학사기준번호 = 학사기준.학사기준번호
WHERE 학사기준.년도 = '2021'

FK 인덱스는 테이블 간의 조인 성능을 향상시키는 데 매우 중요하다. 물리적인 테이블에 FK 제약이 걸려있지 않더라도 FK 속성에 인덱스를 생성하면 성능 저하를 예방할 수 있다. 특히 데이터량이 증가할 때 성능 저하를 방지하기 위해 FK 인덱스를 적절히 생성하는 것이 필요하다. 개발 초기에는 성능 저하가 나타나지 않더라도, 시스템 운영 중 데이터가 누적되면 성능 문제가 발생할 수 있으므로 사전에 대비해야 한다.