생성형 AI는 문제 해결의 강력한 동반자가 될 수 있다는 기대감을 안겨 준다. 본 필자는 최근, HowTo
구조화 데이터가 Google 리치 결과 테스트에 표시되지 않는 문제를 해결하기 위해 Gemini의 도움을 받으려 했다. 하지만 기술적인 부분에만 몰두한 나머지, 정작 중요한 정책 변화를 간과하여 3일이라는 시간을 낭비하고 말았다. 이 경험을 통해 AI를 더 현명하게 활용하는 방법에 대한 몇 가지 교훈을 얻을 수 있었다.
1. 기술적 미로에 갇히다: 끝나지 않던 코드 수정과 테스트
처음 문제는 간단해 보였다. 분명 HowTo
스키마를 페이지에 적용했는데, Google 리치 결과 테스트에서는 해당 항목이 감지되지 않았다. 본 필자는 AI와 함께 JSON-LD 구문 오류를 찾고, 필수 속성이 누락되지 않았는지, @graph
구조는 올바른지 등 기술적인 점검에 매달렸다.
Gemini는 다양한 방법을 통해 문제의 원인을 찾기 위해 여러 가지 테스트 방법과 문법적 오류가 있는지 확인할 것들을 리스트업해 주었다.
- “Step 7에 이미지가 누락되었으니 추가해보세요.”
- “
totalTime
, 전체HowTo
이미지를 추가하는 것이 좋습니다.” - “JSON-LD 유효성 검사기로 전체 코드를 다시 확인해보세요.”
- “캐시 문제일 수 있습니다. 모두 삭제하고 다시 시도해보세요.”
- “다른 스키마 타입은 감지되는데
HowTo
만 안 된다면,HowTo
코드 블록만 따로 테스트해보세요.”
하지만, 이 조언들을 따라 부지런히 코드를 수정하고 테스트를 반복해도 결과는 언제나 같았다.
다 정상인데 도대체 왜 안 되는 거냐고!
2. 결정적 단서: 전에 어디서 들어봤는데?
그냥 이 부분은 포기하고 넘어갈까? 하고 생각한 다음 날. 본 필자의 머릿속에 문득 떠오르는 것이 있었다. 예전에 어디에선가 HowTo
스키마 지원을 중단한다는 그 비슷한 글을 본 적이 있었던 것 같은 것. 그리고 Gemini에게 질문을 던졌다.
구글 검색엔진에서 HowTo
구조화 데이터를 사용하지 않기로 한 것이 사실입니까?
처음 Gemini는 구조화된 데이터가 표시되지 않는 것은 기술적 문제이고, Google의 정책이 변경된 것과 상관이 없다는 반응을 보였다.
하지만, 이것이 “HowTo
항목이 감지되지 않았습니다”라는 문제와는 별개일 수 있습니다.
하지만 몇 번 더 관련 질문을 던지자, Gemini는 한 발 물러나 정책 변경 가능성을 고려하기 시작했다. 하지만 그 결과는 구글 사용자 포럼에 문의해 보라는 내용이었다. 관련 내용을 포럼에서 찾아봐 달라는 명령에도 찾을 수 없다는 대답이 다였다.
결국, 관련 정보를 찾기 위해 본 필자가 직접 Google 검색 센터 커뮤니티를 검색해야 했고, 한 Product Expert(제품 전문가)가 작성한 관련된 글을 발견할 수 있었고, Google은 2023년 9월 부로 HowTo
지원을 사실상 중단했으며, 관련 도구에서도 더 보고하지 않을 수 있다”는 내용을 확인할 수 있었다.
야이 ㅅㅅㅏ.~~~ㅇ!
문제의 핵심은 코드의 기술적 결함이 아니라, Google의 바뀐 정책이었던 것이다. 필자가 찾은 글을 Gemini에게 알려주니, 그제서야 한다는 말이 이렇다.
수정하는 노력은 현재로서는 의미가 없을 수 있습니다.
그렇다. 3일 동안 삽질만 해댄 것이다.
3. AI는 자동 드릴, 하지만 뚫을 방향은 내가 정해야 한다.
이번 경험은 생성형 AI가 매우 유용한 도구임은 분명하지만, 만능 해결사는 아니라는 점을 명확히 보여주었다. AI는 방대한 데이터를 학습하고 그럴듯한 답변을 생성해낼 수 있지만, 한계도 분명히 가진다.
- 최신 정보 및 정책 변화에 대한 즉각적인 반영 부족: AI의 학습 데이터는 특정 시점까지의 정보를 기반으로 하며, 실시간으로 모든 정책 변화나 미묘한 뉘앙스까지 파악하기는 어렵다.
- 질문의 맥락 의존성: 사용자가 어떤 질문을 하고 어떤 방향으로 논의를 이끄는지에 따라 AI의 답변과 분석 방향이 크게 달라진다. “정책 변경” 가능성을 먼저 언급하기 전까지 AI는 기술적 문제 해결에만 집중했다.
“스스로 벽에 구멍을 뚫는 자동 드릴이 있어도, 어디에 구멍을 뚫어야 할지는 사용자가 정해 줘야 하는 것”이다. AI에게 올바른 방향을 제시하고, AI가 생성한 정보를 비판적으로 검토하며, 필요한 경우 추가 정보를 스스로 찾아 나서는, 사용자의 능동적인 역할이 중요하다.
4. 정리
이번 삽질을 통해 얻은 교훈을 정리해 보자면
- 문제 정의의 중요성: 어떤 문제에 직면했을 때, 기술적인 해결책에 바로 뛰어들기 전에 해당 기술이나 기능의 현재 상태, 관련 정책 변경 여부 등 거시적인 환경도 살펴보는 것이 필요하다.
- AI에게 ‘왜’와 ‘만약’을 질문하라: 근본적인 원인과 다양한 가능성을 탐색하도록 유도하는 질문이 필요하다.
- 사용자는 최종 검증자이자 방향 제시자: AI가 제공하는 정보는 유용한 참고 자료일 뿐, 최종 판단과 검증 그리고 책임은 사용자의 몫이다. 또한, AI가 올바른 길로 갈 수 있도록 지속적으로 방향을 제시하고 필요한 정보를 입력해야 한다.
생성형 AI는 분명 우리의 작업을 혁신적으로 도와줄 잠재력을 지니고있다. 하지만 그 잠재력을 최대한 발휘하기 위해서는 AI를 단순한 ‘지시 이행 도구’가 아닌, ‘생각을 확장시켜 주는 파트너’로 인식하고, 사용자가 주도적으로 이끌어가는 자세가 필요할 것이다.
본 필자의 삽질이 독자 제위의 소중한 시간을 절약하는 데 자그마한 도움이 되길 바란다.