오늘은 공공데이터의 품질 검증과 클렌징 방법에 대해 자세히 살펴보겠습니다.
최근 다양한 분야에서 데이터 기반 의사결정과 분석이 급속도로 확산되고 있으며, 특히 정부와 공공기관에서 제공하는 공공데이터의 중요성과 활용도는 계속해서 높아지고 있습니다. 이러한 공공데이터는 행정 효율성을 개선하고 국민에게 유용한 정보를 제공하는 데 핵심적인 역할을 하고 있습니다. 하지만 모든 공공데이터가 완벽한 상태로 제공되는 것은 아닙니다. 오타, 데이터 누락, 정보 불일치, 형식 오류 등 다양한 품질 문제가 발생할 수 있으며, 이로 인해 데이터 분석 및 활용 과정에서 불필요한 시간 소모와 부정확한 결과 도출의 위험이 존재합니다.
이러한 이유로 공공데이터를 활용하는 개인이나 기관에서는 반드시 데이터를 분석하기 전에 품질을 검토하고 필요 시 정제하는 과정을 거쳐야 합니다. 하지만 많은 사람들이 데이터를 검토하고 정제하는 과정을 막연하게 어렵게 느끼며, 어떤 기준으로 품질을 판단해야 하고, 정제 작업은 어떻게 해야 하는지에 대해 명확한 정보를 얻지 못한 채 단순히 데이터를 사용하기도 합니다. 이는 이후 결과의 신뢰성을 저하시킬 수 있으며, 분석의 의미를 무색하게 만들 수 있습니다.
공공데이터 품질 검증과 클렌징은 단순한 데이터 정리 수준을 넘어, 데이터 활용의 출발점이 되는 중요한 과정입니다. 예를 들어, 동일한 지역 정보를 나타내는 행정동 명칭이 서로 다른 형식으로 기록되어 있다면, 그 데이터는 하나의 의미 있는 값으로 통합되기 어렵습니다. 또한 값이 누락된 항목이 많거나 불필요한 특수문자가 혼입되어 있다면 분석 과정에서 오류가 발생하거나 정확한 결과를 얻기 어렵습니다.
따라서 본 글에서는 공공데이터를 분석하기 전에 필수적으로 확인해야 할 품질 검증 항목들과 데이터를 보다 신뢰성 있게 만들기 위한 클렌징 팁에 대해 구체적이고 쉽게 설명드리려 합니다. 공공데이터를 처음 접하는 분들부터 어느 정도 경험이 있는 분들까지 누구나 이해할 수 있도록 하나하나 단계적으로 짚어보겠습니다. 특히 기술적인 용어보다는 일상적인 표현으로 접근하여 데이터 정제 작업이 어렵지 않다는 인식을 심어드리는 데에도 중점을 두겠습니다.
이 글을 끝까지 읽고 나면, 공공데이터를 활용할 때 가장 먼저 해야 할 작업이 무엇인지, 그리고 실무에서 바로 적용할 수 있는 정제 방법에는 어떤 것들이 있는지에 대해 분명하게 이해할 수 있으실 것입니다. 또한, 정제된 데이터를 통해 보다 의미 있는 분석 결과를 얻을 수 있도록 도와드릴 실질적인 팁들도 함께 제시해드릴 예정이니 끝까지 함께해 주시기 바랍니다.
데이터 정확성 확인을 위한 기본 점검 방법
공공데이터를 활용하기 전에 가장 우선적으로 확인해야 할 부분은 바로 데이터의 정확성입니다. 정확하지 않은 데이터를 바탕으로 이루어지는 분석은 결코 신뢰할 수 없으며, 이는 잘못된 결론이나 오판으로 이어질 수 있습니다. 특히 행정, 정책, 연구 분야에서는 데이터의 정확성이 전체 결과의 질을 좌우한다고 해도 과언이 아닙니다. 그렇기 때문에 데이터를 처음 접할 때 반드시 기본적인 점검을 통해 문제를 사전에 발견하고, 그에 맞는 조치를 취하는 것이 필요합니다.
데이터의 정확성을 점검하는 첫 번째 단계는 데이터 항목별 의미 파악입니다. 많은 사람들이 데이터를 받으면 곧바로 분석에 들어가는 경우가 있지만, 각 열이 나타내는 값이 무엇을 의미하는지 정확히 아는 것이 가장 기본적인 출발점입니다. 예를 들어 날짜 항목이라고 해서 반드시 표준형식으로 되어 있는 것은 아닙니다. 어떤 경우에는 숫자로 표기된 연월일이 잘못된 형식으로 적혀 있을 수 있고, 간혹 존재하지 않는 날짜가 포함되어 있는 경우도 있습니다. 또한 지역명, 기관명, 항목명 등이 축약어나 생략된 형태로 기입되어 있다면, 그것이 원래 어떤 정보를 뜻하는지 명확히 이해하는 과정이 반드시 필요합니다.
두 번째로 중요한 점검 항목은 형식의 일관성입니다. 공공데이터는 여러 시스템이나 기관에서 수집되고 정리되다 보니 동일한 정보를 서로 다른 형식으로 표현한 경우가 많습니다. 예를 들어 전화번호의 경우 어떤 항목은 하이픈이 포함된 형태로, 다른 항목은 숫자만 이어진 형태로 제공되기도 합니다. 또 주소의 경우 일부는 도로명 주소를 기준으로, 일부는 지번 주소로 제공되며, 심지어 두 가지 주소 체계가 혼합되어 있는 경우도 있습니다. 이런 형식의 차이는 분석 시 큰 혼란을 유발할 수 있으며, 경우에 따라 중복 데이터로 인식되기도 하므로 반드시 통일된 형식으로 맞추는 것이 중요합니다.
세 번째로 확인해야 할 부분은 오타나 불명확한 표기입니다. 특히 수기로 입력된 데이터나 사람이 검토하지 않고 자동으로 수집된 데이터는 오타가 존재할 가능성이 높습니다. 예를 들어 서울특별시를 서율특별시로 잘못 입력하거나, 홍길동을 홍긷동과 같이 오타가 포함되어 있을 수 있습니다. 이런 오류는 육안으로 쉽게 드러나지 않지만, 데이터 분석 과정에서는 전혀 다른 값으로 인식되어 통계 결과에 큰 영향을 줄 수 있습니다. 따라서 수치가 아닌 텍스트 항목에 대해서는 특히 주의 깊게 살펴봐야 하며, 표기상의 일관성과 정확성을 확보하는 것이 필수입니다.
다음으로 살펴봐야 할 것은 중복 항목입니다. 공공데이터는 한 사건이나 정보가 여러 번 기록되는 경우가 많기 때문에 동일한 내용이 중복되어 포함되어 있는지 확인해야 합니다. 예를 들어 같은 기관에서 같은 시점에 작성된 문서가 두 번 업로드된 경우, 데이터 항목은 거의 동일하나 고유번호 하나만 다른 중복 데이터일 수 있습니다. 이러한 항목은 하나의 정보로만 계산되어야 정확한 통계가 되므로, 중복 여부를 사전에 점검하고 불필요한 항목은 제거하는 것이 바람직합니다.
또한 누락값이 존재하는지도 반드시 살펴봐야 합니다. 특정 열에서 값이 비어 있는 경우, 그 항목이 의도적으로 생략된 것인지 아니면 입력 오류로 인한 것인지를 판단해야 합니다. 단순히 빈 칸을 모두 제거하는 것이 능사는 아니며, 해당 데이터가 전체 분석에서 얼마나 중요한지를 고려하여 처리해야 합니다. 예를 들어 설문조사 결과에서 응답이 없는 항목이 많다면, 그것은 응답자들이 해당 질문을 이해하지 못했거나 민감한 질문일 가능성도 있으므로 그 자체가 중요한 정보가 될 수 있습니다.
마지막으로, 데이터 수치를 통한 이상값 확인도 중요합니다. 일반적인 범주에서 크게 벗어나는 값이 존재하는 경우, 이는 입력 오류일 가능성이 높습니다. 예를 들어 출생연도를 기록하는 열에 1800이라는 값이 들어가 있다면 이는 명백히 잘못된 값일 수 있으며, 특정 항목의 숫자가 지나치게 크거나 작은 경우에도 해당 항목을 재확인하는 절차가 필요합니다. 이러한 이상값은 단순히 평균값이나 중앙값을 왜곡시킬 뿐만 아니라, 전체 분석 흐름을 엉뚱한 방향으로 이끌 수 있기 때문에 반드시 확인해야 하는 항목입니다.
이렇듯 데이터 정확성 점검은 단순한 형식 확인을 넘어 데이터가 가진 의미, 입력 과정에서의 오류 가능성, 그리고 통계적으로 비정상적인 항목까지 모두 검토하는 과정을 포함합니다. 이 과정을 철저히 진행함으로써 이후의 클렌징 작업은 물론, 분석의 신뢰성까지 확보할 수 있게 됩니다. 특히 공공데이터처럼 출처가 명확하고 범위가 방대한 데이터는 작은 오류 하나도 분석 전체에 큰 영향을 줄 수 있으므로, 기본 점검을 결코 소홀히 해서는 안 됩니다.
누락값과 이상값 처리의 실제 적용 사례
공공데이터를 분석하거나 활용하기 위해서는 우선적으로 데이터의 완전성을 확보해야 합니다. 그 중에서도 가장 자주 마주하게 되는 문제가 바로 누락된 항목과 일반적인 범위에서 벗어난 수치입니다. 이러한 문제들은 단순한 불편함을 넘어서 전체 분석의 방향을 왜곡시키거나 잘못된 결과를 유도할 수 있기 때문에, 사전에 어떻게 식별하고 처리할 것인지에 대한 실제적인 대응 방법을 이해하고 있어야 합니다.
먼저 누락값의 문제부터 살펴보겠습니다. 누락값은 다양한 원인으로 인해 발생할 수 있습니다. 예를 들어 정보 입력자의 실수로 인해 공란으로 남겨졌을 수도 있고, 특정 항목에 대한 정보가 애초에 수집되지 않았거나 해당 정보를 제공하는 기관에서 의도적으로 누락했을 가능성도 있습니다. 공공데이터에서는 개인정보 보호, 민감한 사안에 대한 배제, 기술적 문제 등으로 인해 특정 열 또는 특정 행 전체가 비어 있는 경우도 종종 발생합니다.
누락값을 처리하기 위해서는 그 발생 원인을 먼저 파악해야 합니다. 예를 들어 설문조사 형태의 데이터라면, 미응답이 다수 포함된 항목은 해당 질문이 어렵거나 민감하게 느껴졌을 가능성이 있습니다. 이런 경우 단순히 해당 항목을 삭제하거나 무시하기보다는, 왜 그런 현상이 나타났는지를 고려하여 그 자체를 의미 있는 분석 지표로 삼을 수 있습니다. 반대로 단순 입력 실수나 전송 오류로 인한 누락이라면, 주변 데이터를 참고하여 보완하거나 삭제 여부를 결정하는 방식이 더 적절합니다.
또한 누락된 항목이 전체 데이터의 몇 퍼센트 정도를 차지하는지 파악하는 것도 중요합니다. 누락값이 전체 데이터의 5퍼센트 이내로 제한되어 있다면 삭제하거나 평균값 등으로 대체하는 것이 큰 영향을 주지 않을 수 있습니다. 그러나 누락이 전체의 절반을 넘어서는 수준이라면, 해당 열 자체를 분석에서 제외하거나 다른 방식으로 접근하는 것이 바람직할 수 있습니다. 일부 분석에서는 누락값 자체가 의미 있는 변수가 될 수도 있으므로, 이를 새로운 열로 변환해 활용하는 경우도 있습니다.
한편, 이상값은 데이터의 논리적인 흐름에서 벗어나거나 일반적인 범주에서 벗어난 값을 의미합니다. 예를 들어 100세 이상 인구 통계 자료에서 320세라는 값이 등장하거나, 온도 측정 자료에서 영하 200도와 같은 수치가 포함된 경우가 이에 해당합니다. 이러한 값은 대개 입력 오류이거나 장비 오작동의 결과물일 가능성이 높습니다. 그렇기 때문에 단순히 수치적으로 극단적이라고 해서 모두 제거할 것이 아니라, 해당 값의 존재 이유를 면밀히 분석하는 과정이 필요합니다.
이상값의 확인 방식은 다양한데, 가장 일반적인 방법은 수치의 분포를 시각화하거나 평균, 중앙값과의 차이를 기준으로 판단하는 것입니다. 예를 들어 어느 지역의 출생률 데이터를 분석하는 경우, 전체 평균과 비교했을 때 유난히 높은 수치를 보이는 항목이 있다면 해당 지역에서 실제로 특수한 상황이 있었는지 확인해야 합니다. 산부인과의 개원, 출산 장려 정책 등의 영향을 받은 것이라면 그 값은 제거 대상이 아니라 중요한 분석 포인트가 될 수 있기 때문입니다.
반대로 아무런 맥락 없이 특정 값만 높거나 낮게 나타난다면, 입력된 방식에 문제가 있었을 수 있습니다. 예를 들어 10000원을 100000원으로 잘못 입력하거나, 단위가 섞여 있는 경우도 흔히 발견됩니다. 어떤 데이터는 천 단위로 기록되어 있고, 어떤 데이터는 단위 변환 없이 그대로 입력되어 있어 이를 동일한 기준으로 맞추는 작업이 선행되어야 합니다.
이상값의 처리 방법에는 여러 가지가 있습니다. 가장 간단한 방법은 해당 값을 제거하는 것입니다. 그러나 이것이 항상 최선은 아닙니다. 값이 극단적으로 높거나 낮다고 하여 무조건 제거하게 되면, 실제로 그 값이 의미하는 특별한 상황을 놓치게 되는 경우도 있습니다. 따라서 이상값의 존재 이유를 먼저 파악하고, 그 의미를 분석한 후 처리 여부를 결정해야 합니다.
또한 대체값을 사용하는 방법도 있습니다. 평균값이나 중앙값, 또는 주변값의 추세를 바탕으로 이상값을 대체하는 방식입니다. 이 방식은 전체 데이터의 흐름을 유지하면서도 왜곡을 최소화할 수 있다는 장점이 있습니다. 하지만 이 역시 무분별하게 적용하면 데이터의 원래 특성을 왜곡할 수 있으므로 주의가 필요합니다.
실제 사례를 들어보면, 지역별 실업률 통계를 수집하는 과정에서 특정 지역의 수치가 다른 지역보다 3배 이상 높게 나타난 경우가 있었습니다. 초기에 이는 입력 오류로 간주되어 제거 대상이었으나, 조사 결과 해당 지역에서 대규모 사업장이 폐쇄되면서 실업률이 일시적으로 급증한 것이 밝혀졌습니다. 이 경우 단순 이상값이 아니라 중요한 정책적 시사점을 제공하는 값으로, 분석에 포함시키는 것이 더 타당했습니다.
이처럼 누락값과 이상값은 단순히 오류로 판단하고 무조건 삭제하거나 무시하는 것이 아니라, 그 배경과 의미를 충분히 파악하고 데이터 전체의 흐름과 비교해 신중하게 처리해야 합니다. 데이터 정제는 표면적으로는 수치나 항목을 정리하는 일처럼 보이지만, 실제로는 수많은 의미와 상황을 이해하는 과정이 병행되어야 하는 작업입니다. 공공데이터처럼 다수의 기관과 다양한 방식으로 수집된 데이터는 이러한 문제들이 더욱 빈번하게 발생하기 때문에, 경험과 기준을 바탕으로 체계적인 처리 방법을 갖추는 것이 매우 중요합니다.
데이터 통일성과 일관성을 위한 정제 전략
공공데이터를 효과적으로 활용하기 위해서는 단순히 오류를 제거하는 수준을 넘어, 전체 데이터의 구조와 표현 방식이 일관되도록 통일하는 과정이 필수적입니다. 다양한 출처에서 수집된 정보는 항목의 명칭, 값의 단위, 표기 형식, 분류 체계 등이 제각각일 수 있어 이를 통일하지 않으면 분석이 어렵거나 잘못된 해석이 발생할 가능성이 매우 높습니다. 특히 행정기관, 지방자치단체, 공공기관 등에서 제공되는 데이터는 수집 목적과 형식이 서로 다르기 때문에 통일성과 일관성을 확보하는 작업이 전체 정제 과정에서 핵심이 됩니다.
먼저 항목 명칭의 통일이 중요합니다. 같은 의미를 가진 데이터라도 기관마다 서로 다른 이름으로 사용하고 있는 경우가 많습니다. 예를 들어 주민 수, 인구 수, 총인구 등은 모두 동일한 개념을 나타내지만, 표기된 명칭이 다르면 자동 분석 도구나 필터링 과정에서 하나의 항목으로 인식되지 않아 분석에 혼선을 줄 수 있습니다. 이럴 경우 사전에 통일된 용어 체계를 수립하고, 모든 데이터를 이에 맞추어 정리하는 작업이 필요합니다. 이는 수작업으로도 가능하지만, 일정 기준에 따라 일괄 변환이 가능하도록 표준화 규칙을 정리해두는 것이 효율적입니다.
다음으로 중요한 부분은 단위의 일관성입니다. 수치 데이터를 다룰 때 단위가 서로 다르면 단순한 계산 오류를 넘어 결과 전체의 의미를 왜곡하게 됩니다. 예를 들어 면적을 제곱미터로 표현한 데이터와 평으로 나타낸 데이터를 함께 분석할 경우, 단위 변환을 거치지 않으면 비교 자체가 무의미해집니다. 이처럼 공공데이터에서는 동일한 항목이라도 단위가 각기 다를 수 있기 때문에, 우선적으로 모든 수치를 동일한 기준으로 환산하고 일관된 단위를 적용하는 것이 선행되어야 합니다. 특히 면적, 거리, 무게, 금액, 시간 등 물리적 수치가 포함된 항목은 사전 기준을 명확히 정하고 적용해야 오류를 방지할 수 있습니다.
표기 형식의 일치 또한 데이터 정제에서 빼놓을 수 없는 요소입니다. 숫자의 구분 기호, 날짜의 표현 방식, 주소 표기 등은 기관별, 시기별로 다르게 나타날 수 있습니다. 예를 들어 날짜 항목의 경우 2023-01-15, 2023년 1월 15일, 23/01/15 등 서로 다른 형식으로 기입되어 있을 수 있으며, 이 값을 그대로 두면 정렬이나 기간별 분석이 어렵습니다. 따라서 날짜는 연, 월, 일 순서로 고정하고, 숫자만으로 구성된 형태로 통일하는 것이 일반적입니다. 숫자 구분 기호 역시 천 단위마다 쉼표를 넣는지, 소수점은 몇 자리까지 허용할지 등 정해진 기준에 따라 형식을 통일해 주어야 합니다.
다음으로 분류 체계의 통일도 고려해야 할 중요한 항목입니다. 지역, 직업, 산업, 연령대 등 여러 항목들은 정해진 분류 코드나 명칭으로 관리되어야 분석과 통계 활용이 가능해집니다. 예를 들어 지역 정보를 다룰 때 어떤 데이터는 서울, 부산과 같은 광역명만 표기되어 있고, 또 다른 데이터는 서울특별시 강남구 역삼동처럼 상세 주소까지 포함되어 있다면 같은 항목으로 분류하는 것이 매우 어려워집니다. 이럴 경우 특정 수준의 분류 기준을 설정하고, 모든 데이터를 그에 맞게 정리해야 합니다. 예를 들어 행정구역 단위는 시·군·구 단위로 통일한다는 기준을 정하고 그 기준에 맞게 나머지 데이터도 정제하는 방식입니다.
또한, 특정 항목에서 사용된 코드가 서로 다르면 의미를 해석하기 어렵습니다. 예를 들어 성별 항목에서 어떤 데이터는 남, 여로 표기되어 있고, 다른 데이터는 1, 2로 표시되어 있는 경우라면 같은 의미로 분류하기 위한 기준이 필요합니다. 이와 같이 코드를 통일하기 위한 매핑 작업을 반드시 거쳐야 하며, 이는 단순한 치환이 아닌, 전체적인 해석 기준과 연결되는 작업이기 때문에 세심한 주의가 필요합니다.
데이터 정제 전략에서 또 하나 중요한 요소는 예외값 처리입니다. 앞서 이상값에 대해 언급했지만, 일관성을 유지하기 위해 예외적으로 표기된 값들도 별도로 정리해줄 필요가 있습니다. 예를 들어 해당 없음, 정보 없음, 기타와 같은 비정형 값들이 어떤 기준으로 분류될 수 있을지 고민해야 하며, 필요 시 이들을 별도 항목으로 분류하거나 의미 없는 값으로 제거하는 방식으로 통일성을 확보할 수 있습니다.
마지막으로, 데이터 정제 작업의 반복 가능성과 유지 관리를 고려해야 합니다. 한 번의 정제 작업으로 모든 문제가 해결되는 것이 아니라, 새로운 데이터가 추가되거나 기존 데이터가 수정되는 경우가 빈번히 발생하기 때문입니다. 따라서 정제 기준을 문서화하고, 그 기준에 따라 데이터를 지속적으로 관리할 수 있는 체계를 갖추는 것이 중요합니다. 이를 통해 정제 작업이 단발성으로 끝나지 않고 지속적인 품질 확보의 수단이 될 수 있습니다.
데이터의 통일성과 일관성은 분석을 위한 사전 준비가 아니라 분석 그 자체의 정확도를 결정짓는 중요한 요소입니다. 이 작업이 체계적으로 이루어져야만 이후의 통계 해석, 시각화, 정책 활용 등 모든 과정이 신뢰성을 갖게 되며, 공공데이터의 가치를 제대로 살릴 수 있습니다. 특히 다양한 출처에서 수집된 데이터를 하나로 통합해 활용해야 하는 경우에는, 이와 같은 정제 전략이 분석 전 가장 우선적으로 이루어져야 할 필수 단계임을 잊지 말아야 합니다.
지금까지 공공데이터의 품질 검증과 클렌징 과정을 단계별로 상세히 살펴보았습니다. 데이터 활용에 앞서 가장 먼저 수행해야 할 핵심 작업은 그 품질을 철저히 점검하는 일입니다. 부정확하거나 불완전한 데이터를 그대로 사용하는 것은 분석의 신뢰성을 저해할 뿐만 아니라, 잘못된 의사결정으로 이어질 수 있는 심각한 위험 요소가 됩니다. 데이터를 올바르게 다루는 것은 단순한 기술적 문제를 넘어, 분석과 의사결정의 전반적인 질을 결정짓는 근본적인 과정이라고 할 수 있습니다.
특히 공공데이터는 다양한 기관에서 서로 다른 목적으로 수집되기 때문에, 누락값과 이상값은 물론이고 항목 간 형식 불일치, 분류 기준의 차이 등 복합적인 품질 문제가 동시에 존재하는 경우가 많습니다. 따라서 단순한 표면적 오류 수정으로는 충분하지 않으며, 데이터를 바라보는 근본적인 접근 방식을 재정립해야 합니다. 분석 준비 단계부터 데이터의 흐름, 구조, 작성 배경을 깊이 있게 이해하고, 각 값이 지닌 의미를 꼼꼼히 검토하는 것이 데이터 품질 확보의 핵심입니다.
또한 정제 과정은 특정 도구나 기술에 전적으로 의존해서는 안 되며, 데이터 활용 목적에 따라 정제 기준을 유연하게 조정할 수 있어야 합니다. 누락된 값이나 잘못 표기된 항목 하나도 전체 결과를 크게 왜곡할 수 있기에, 단순 기계적 처리보다는 데이터의 맥락을 깊이 고려한 섬세한 접근이 필요합니다. 이러한 세심한 노력을 통해 데이터는 점점 더 신뢰할 수 있는 자원이 되며, 이는 공공의 이익을 위한 다양한 분야에 효과적으로 활용될 수 있는 토대가 됩니다.
무엇보다 중요한 것은 공공데이터 정제가 일회성 작업이 아니라는 점입니다. 데이터는 지속적으로 업데이트되고 새로운 항목이 계속 추가되기 때문에, 품질 관리 역시 반복적이고 지속적인 관점에서 이루어져야 합니다. 이를 위해 정제 기준과 절차를 명확히 문서화하고, 어떤 담당자가 데이터를 다루더라도 일관된 품질을 유지할 수 있는 체계적인 관리 시스템을 구축해야 합니다. 이렇게 정제된 데이터는 단순한 숫자의 나열을 넘어, 신뢰성과 활용성을 갖춘 귀중한 자산으로 거듭나게 됩니다.
결국 공공데이터 품질 검증과 정제는 단순한 기술적 사전 준비가 아니라, 데이터에 대한 책임감 있는 태도를 실천하는 과정입니다. 더 많은 사람들이 데이터의 중요성과 정제의 필요성을 깊이 인식하고, 체계적인 관리와 세심한 검토를 통해 진정으로 가치 있는 분석을 이어나가기를 진심으로 희망합니다. 이 글이 그 출발점을 함께하는 데 작은 도움이 되었기를 바랍니다..