한눈에 보기
- 발표 내용: Google이 2026년 4월 21일 Gemini 기반 Deep Research와 Deep Research Max를 공개했다.
- 핵심 변화: 단순 검색 요약이 아니라 웹, 파일, 커스텀 데이터 소스를 탐색하고 인용 기반 보고서를 만드는 autonomous research agent 쪽으로 무게가 옮겨갔다.
- Max의 포지션: Deep Research Max는 더 긴 실행 시간, 더 넓은 검색, 더 많은 소스, 복잡한 분석과 종합에 초점을 둔 구성이다.
- 배경: Google Cloud Next 26에서 나온 Gemini Enterprise Agent Platform, agentic enterprise 흐름과도 맞물린다.
- 주의할 점: 인용이 붙는다고 해서 결과를 그대로 믿어도 된다는 뜻은 아니다. 출처 원문 확인, 충돌하는 근거 비교, 최신성 검증은 여전히 필요하다.
이번 발표, 뭐가 달라졌나
Google이 2026년 4월 21일 Deep Research와 Deep Research Max를 발표했다. Google 설명에 따르면 이 기능은 Gemini 3.1 Pro를 기반으로 하고, 기존 Gemini Deep Research를 더 긴 리서치 워크플로우에 맞게 확장한 형태다.
개인적으로 이번 발표에서 눈에 들어온 건 "요약을 잘한다"보다 "리서치 과정을 오래 끌고 갈 수 있다"는 쪽이다. Google은 Deep Research가 웹과 커스텀 소스를 함께 탐색하고, 여러 단계의 조사 계획을 실행하며, 최종적으로 인용이 달린 분석 보고서를 만들 수 있다고 설명한다. 개발자는 Gemini API의 Interactions API를 통해 Deep Research와 Deep Research Max를 public preview로 사용할 수 있고, 유료 티어에서 제공된다고 밝혔다.
여기서 중요한 포인트는 검색 결과 몇 개를 묶어주는 기능이 아니라는 점이다. Google은 Deep Research를 "enterprise workflows"의 첫 단계, 즉 깊은 맥락 수집이 필요한 agentic pipeline의 출발점으로 설명한다. 보고서 하나를 만드는 데서 끝나는 게 아니라, 이후 분석, 의사결정, 문서화 같은 흐름으로 이어질 수 있다는 그림이다.
Deep Research와 Deep Research Max의 차이
Google은 이번에 두 가지 구성을 나눠서 소개했다.
Deep Research는 속도와 효율에 초점을 둔다. 대화형 제품이나 사용자가 기다리고 있는 화면 안에서 리서치 경험을 넣고 싶을 때 더 맞는 구성으로 설명된다. Google은 2025년 12월 preview release를 대체하며, 지연 시간과 비용을 줄이면서 품질을 높였다고 밝혔다.
반면 Deep Research Max는 더 무겁다. Google 표현을 빌리면 "maximum comprehensiveness"와 "highest-quality synthesis"를 목표로 하고, extended test-time compute를 써서 반복적으로 추론하고, 검색하고, 최종 보고서를 다듬는다. 예시도 꽤 직관적이다. 밤에 analyst team을 위해 exhaustive due diligence report를 만들어두는 nightly cron job 같은 비동기 백그라운드 작업이 언급된다.
그러니까 간단히 정리하면 이렇다.
- 빠른 사용자-facing 리서치: Deep Research
- 오래 돌려도 되는 고강도 리서치: Deep Research Max
이 차이는 앞으로 꽤 중요해질 것 같다. AI 리서치가 실무에 들어가면 "답변이 몇 초 안에 나오느냐"와 "몇십 분을 쓰더라도 충분히 넓고 깊게 봤느냐"가 서로 다른 제품 요구사항이 되기 때문이다.

커스텀 소스와 MCP가 핵심인 이유
이번 발표에서 가장 실무적인 부분은 소스 연결이다. Google은 Deep Research가 웹뿐 아니라 remote MCP, 파일 업로드, 연결된 파일 저장소를 검색할 수 있다고 설명했다. 또 웹 접근을 끄고 커스텀 데이터만 검색하는 구성도 가능하다고 밝혔다.
이건 일반 검색 AI와 꽤 다른 지점이다. 실제 회사에서 리서치할 때는 공개 웹만 보면 부족한 경우가 많다. 내부 문서, 업로드한 PDF, CSV, 이미지, 오디오, 비디오, 전문 데이터 제공사 자료가 섞인다. Google은 Deep Research가 이런 multimodal 입력을 기반으로 리서치를 grounding할 수 있다고 설명한다.
MCP 지원도 같은 맥락이다. Google은 financial data provider나 market data provider 같은 전문 데이터 스트림을 MCP로 연결하는 흐름을 언급했고, FactSet, S&P Global, PitchBook과 MCP server design을 협업 중이라고 밝혔다. 다만 이 부분은 Google의 발표 내용 기준이다. 실제 각 조직에서 어떤 데이터가 얼마나 잘 연결되고, 권한과 비용이 어떻게 잡히는지는 별도 확인이 필요하다.
리포트가 텍스트에서 끝나지 않는다
Google은 Deep Research가 Gemini API에서 네이티브 차트와 인포그래픽을 생성할 수 있다고 설명했다. 복잡한 정량/정성 데이터를 HTML이나 Nano Banana를 통해 보고서 안에 시각화하는 방식이다.
이 부분은 리서치 에이전트가 단순히 "긴 글을 써주는 도구"에서 벗어나는 신호로 보인다. 시장 조사, 투자 검토, 생명과학 리서치 같은 작업에서는 텍스트 요약만으로 부족할 때가 많다. 표, 그래프, 비교 구조가 있어야 팀 안에서 읽히고 공유된다.
물론 이것도 바로 "발표 자료 완성"이라고 받아들이면 위험하다. 차트가 그럴듯해 보여도 원 데이터, 축, 기간, 계산 방식이 맞는지 확인해야 한다. AI가 만든 시각화일수록 예쁘게 보이는 것과 정확한 것은 분리해서 봐야 한다.
왜 지금 리서치 에이전트인가
Google Cloud Next 26 발표 흐름을 같이 보면 방향이 더 분명해진다. Google은 Cloud Next 26에서 agentic enterprise 전환을 강조했고, Gemini Enterprise Agent Platform, Agentic Data Cloud, Workspace Intelligence 같은 발표를 묶어 소개했다. Google은 Google Cloud 고객의 약 75%가 AI 제품을 비즈니스에 사용하고 있으며, 직접 API 사용 기준으로 고객들이 분당 160억 개 이상의 토큰을 처리하고 있다고 밝혔다.
이 숫자 자체는 Google 발표 기준으로 봐야 하지만, 메시지는 명확하다. AI가 "개인이 물어보는 챗봇"에서 "조직 안에서 오래 실행되는 업무 흐름"으로 이동하고 있다는 것이다. Deep Research Max도 이 흐름 안에 있다. 리서치를 자동화한다는 말보다, 조직의 데이터와 외부 웹을 함께 훑고, 인용과 근거를 남기며, 다음 업무 단계로 넘기는 기반에 가깝다.
OpenAI 발표를 비교 배경으로 봐도 비슷한 흐름이 보인다. OpenAI는 2026년 4월 22일 ChatGPT workspace agents를 공개하면서 팀 단위 공유 에이전트, long-running workflows, 조직 권한과 승인 흐름을 강조했다. 같은 날 공개한 Responses API WebSocket 글에서는 에이전트가 길게 실행될수록 API 연결, 캐시, 상태 관리, 도구 호출 루프가 중요해진다는 점을 설명했다.
즉 Google과 OpenAI가 각각 다른 제품을 내놓고 있지만, 방향은 닮아 있다. 모델 하나가 더 똑똑해지는 경쟁을 넘어서, 에이전트가 오래 일하고, 필요한 소스를 찾아오고, 조직의 권한 안에서 움직이며, 결과물을 검증 가능한 형태로 남기는 쪽으로 가고 있다.
그래도 검색 결과를 맹신하면 안 된다
Deep Research Max 같은 제품이 매력적인 이유는 분명하다. 사람이 직접 검색하고, 문서를 열고, PDF를 읽고, 표를 정리하고, 보고서 구조를 잡는 시간을 줄여줄 수 있다. 특히 리서치 범위가 넓을수록 "처음부터 끝까지 내가 다 뒤지는 방식"은 점점 비싸진다.
하지만 인용이 달린 리포트라고 해서 자동으로 신뢰할 수 있는 것은 아니다. 인용은 검증의 시작점이지, 검증의 끝이 아니다.
확인해야 할 부분은 꽤 현실적이다.
- 출처가 실제로 주장한 내용과 AI 요약이 일치하는가
- 오래된 출처와 최신 출처가 섞였을 때 무엇을 우선해야 하는가
- 서로 충돌하는 근거를 AI가 한쪽으로만 정리하지 않았는가
- 유료 데이터, 내부 문서, 공개 웹의 권위와 목적을 구분했는가
- 차트나 표가 원 데이터와 계산 방식에 맞게 만들어졌는가
특히 투자, 의료, 법무, 보안처럼 틀렸을 때 비용이 큰 영역에서는 AI 리서치 결과를 초안으로 봐야 한다. 최종 판단은 사람이 출처를 열어보고 확인하는 과정까지 포함해야 한다.
좋았던 점
- Deep Research와 Deep Research Max를 나눠서 속도형/고강도 리서치형 요구를 분리한 점이 현실적이다.
- 웹뿐 아니라 remote MCP, 파일 업로드, 연결된 파일 저장소, 커스텀 데이터 검색을 함께 다루는 방향이 실무에 가깝다.
- collaborative planning으로 실행 전 리서치 계획을 검토하고 조정할 수 있다는 점은 블랙박스 리서치의 불안감을 줄이는 장치로 보인다.
- 인용 기반 보고서와 네이티브 시각화를 함께 강조한 점은 "읽히는 리서치 결과물"을 겨냥한 것으로 보인다.
아쉬운 점
- public preview 단계라 실제 품질, 비용, 지연 시간은 사용 환경별로 다시 확인해야 한다.
- Google 발표 기준의 성능과 사례가 중심이라, 독립적인 장기 사용 후기는 아직 더 필요하다.
- MCP와 전문 데이터 연결은 매력적이지만, 각 조직의 권한 관리, 데이터 계약, 감사 요구사항에 따라 도입 난도가 달라질 수 있다.
- "많은 소스를 봤다"와 "좋은 판단을 했다"는 다른 문제다. 출처 검증 워크플로우가 같이 설계되어야 한다.
내 생각
이번 Google Deep Research Max 발표는 AI 검색의 다음 단계를 꽤 노골적으로 보여준다. 예전에는 AI 검색이 "내가 검색할 걸 대신 요약해준다"에 가까웠다면, 이제는 "조사 계획을 세우고, 여러 소스를 돌고, 커스텀 데이터까지 섞어서, 인용과 시각화가 있는 보고서로 남긴다"로 가고 있다.
여기서 진짜 차이는 답변 길이가 아니다. 오래 실행되는 리서치 작업을 어떻게 통제하고, 어떤 소스를 쓰게 하고, 결과의 근거를 어떻게 남기느냐가 핵심이다. Deep Research Max가 정확히 그 지점을 겨냥하고 있다는 점에서 이번 발표는 꽤 의미가 있다.
다만 나는 이런 도구를 "검색을 대체하는 정답 기계"로 보지는 않는다. 오히려 좋은 리서치 초안을 더 빨리 만들고, 사람이 검증해야 할 출처 목록을 더 잘 정리해주는 도구에 가깝다. AI가 출처를 붙여준다면, 우리는 그 출처를 더 쉽게 열어보고 따져볼 수 있어야 한다.
여러분은 이런 리서치 에이전트를 실제 업무에 쓴다면 어디에 먼저 붙여보고 싶으신가요? 시장 조사, 경쟁사 분석, 논문 정리, 투자 검토 중에서 제일 효과가 클 것 같은 영역이 궁금합니다.

결론
Google Deep Research와 Deep Research Max는 검색 요약 기능의 업그레이드라기보다, 장기 실행형 AI 리서치 에이전트로 가는 발표에 가깝다. Gemini 3.1 Pro, MCP, 커스텀 소스, 파일 입력, 인용 보고서, 네이티브 시각화, collaborative planning을 묶어 보면 방향이 선명하다.
앞으로 AI 리서치 도구의 경쟁은 "누가 더 빠르게 답하느냐"만으로 갈리지 않을 것 같다. 누가 더 넓고 다양한 소스를 다루는지, 누가 근거를 더 투명하게 남기는지, 누가 조직의 실제 데이터와 권한 구조 안에서 오래 실행되는 워크플로우를 안정적으로 처리하는지가 더 중요해질 것이다.
다만 결론은 단순하다. AI가 리서치를 도와줄 수는 있지만, 검증 책임까지 사라지는 것은 아니다. Deep Research Max 같은 도구를 쓸수록 검색 결과를 맹신하기보다, 인용을 열어보고, 원문과 비교하고, 중요한 판단은 사람이 확인하는 습관이 더 중요해진다.
