본문 바로가기
AI 언어 모델

✨Gemini 2.0 패밀리: 최대 200만 토큰 지원하는 구글의 최신 AI 모델군

by James AI Explorer 2025. 2. 7.
    728x90

    안녕하세요! 오늘은 Google에서 공개한 최신 멀티모달 AI 모델, Gemini 2.0 업데이트에 대해 살펴보겠습니다. 이번 Gemini 모델의 업데이트는 이전 모델 대비 성능과 효율성을 대폭 개선했으며, 사용자의 다양한 요구를 충족시키기 위해 Flash, Pro, Flash-Lite 세 가지 버전으로 제공됩니다. Gemini 2.0은 최대 200만 토큰의 컨텍스트 창, 멀티모달 입력 지원, 강화된 도구 호출 기능 등 여러 혁신적인 기능을 갖추고 있으며, 비용 효율성을 고려한 Flash-Lite 모델을 도입하여 개인 사용자와 기업 모두에게 더 넓은 선택지를 제공합니다. 이번 블로그에서는 Gemini 2.0의 핵심 기능, 성능 벤치마크, 사용방법을 살펴보고, 직접 코딩·수학·추론 성능을 테스트해 보겠습니다.

    ✨Gemini 2.0 패밀리: 최대 200만 토큰 지원하는 구글의 최신 AI 모델군

    "이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

    1. Gemini 2.0 개요

    Gemini 2.0은 Google에서 개발한 최신 AI 모델로, 2025년 2월 5일에 모든 사용자에게 공개되었으며, 다양한 사용자 요구를 충족시키기 위해 다음과 같은 세 가지 주요 버전으로 나뉩니다.

    모델 특징 컨텍스트 창
    Gemini 2.0 Flash 짧은 지연 시간과 향상된 성능, 대규모 고빈도 작업 최적화, 방대한 정보 처리 100만 토큰
    Gemini 2.0 Pro 코딩 및 복잡한 프롬프트 처리에 최적화, Google 검색, 코드 실행 도구 호출 200만 토큰
    Gemini 2.0 Flash-Lite 가장 비용 효율적인 모델, 1.5 Flash와 동일한 속도 및 비용 100만 토큰

    Gemini 2.0 Flash는 짧은 지연 시간과 뛰어난 성능으로 대규모 고빈도 작업에 최적화되었으며, 100만 토큰의 컨텍스트 창을 지원합니다. Gemini 2.0 Pro는 코딩 및 복잡한 프롬프트 처리에 강하며, Google 검색 및 코드 실행 도구 호출 기능을 갖추고 있으며, 200만 토큰을 지원합니다. Gemini 2.0 Flash-Lite는 가장 비용 효율적인 모델로, 1.5 Flash와 동일한 속도와 비용을 유지하며, 100만 토큰의 컨텍스트 창을 제공합니다.

    https://blog.google/technology/google-deepmind/gemini-model-updates-february-2025/

     

    Gemini 2.0 is now available to everyone

    We’re announcing new updates to Gemini 2.0 Flash, plus introducing Gemini 2.0 Flash-Lite and Gemini 2.0 Pro Experimental.

    blog.google

    728x90

    2. Gemini 2.0 특징 및 주요 기능

    Gemini 2.0 모델은 다양한 특징과 주요 기능을 제공합니다.

    • 멀티모달 입력: Gemini 2.0은 텍스트 입력 외에도 다양한 형태의 데이터를 입력으로 받을 수 있습니다. 이미지 입력이 가능하며, 향후 이미지 생성 및 텍스트 음성 변환 기능도 추가될 예정입니다.
    • 향상된 성능: Gemini 2.0은 이전 모델에 비해 주요 벤치마크에서 향상된 성능을 보여줍니다. 특히 Gemini 2.0 Pro는 코딩 성능과 복잡한 프롬프트 처리 능력에서 뛰어납니다. Gemini 2.0 Flash-Lite는 1.5 Flash보다 더 나은 품질을 제공합니다.
    • 대규모 컨텍스트 창: Gemini 2.0은 100만 토큰에서 200만 토큰에 이르는 대규모 컨텍스트 창을 제공하여, 대량의 정보를 처리하고 분석할 수 있습니다. 특히 Gemini 2.0 Pro는 가장 큰 컨텍스트 창을 제공하여 더욱 복잡한 작업을 처리할 수 있습니다.
    • 도구 호출 기능: Gemini 2.0 Pro는 Google 검색 및 코드 실행과 같은 도구를 호출할 수 있습니다. 이는 모델이 외부 정보를 활용하고 코드를 실행하여 작업 능력을 더욱 향상시킨다는 것을 의미합니다.
    • 비용 효율성: Gemini 2.0 Flash-Lite는 저렴한 비용으로 높은 품질을 제공하여 사용자에게 경제적인 이점을 제공합니다. 예를 들어, Google AI Studio의 유료 등급에서 약 4만 장의 사진에 대한 관련 캡션을 생성하는 데 1달러 미만의 비용이 소요됩니다.
    • 안전 및 보안: Gemini 2.0 모델은 안전하고 보안된 사용을 위해 강화된 조치를 갖추고 있습니다. 예를 들어, 모델 자체를 사용하여 응답을 비판하는 새로운 강화 학습 기술이 적용되어 민감한 프롬프트를 더 잘 처리할 수 있습니다. 또한 간접적인 프롬프트 주입과 같은 사이버 보안 공격으로부터 보호하기 위해 자동화된 레드 팀 기능이 사용됩니다.

    https://deepmind.google/technologies/gemini/pro/

     

    Gemini 2.0 Pro

    Gemini 2.0 Pro is our best model yet for coding performance and complex prompts with our largest context window.

    deepmind.google

     

    3. Gemini 2.0 벤치마크 결과

    Gemini 2.0 Pro (Experimental)은 대부분의 벤치마크에서 가장 높은 성능을 보여주며, 특히 추론, 다국어, 수학, 장문 맥락 이해 분야에서 두드러집니다. Gemini 2.0 Flash는 범용적인 작업에 최적화되어 전반적으로 Gemini 1.5 세대보다 우수한 성능을 보이며, Gemini 1.5 Pro가 Gemini 1.5 Flash보다 대부분의 분야에서 성능이 더 높게 나타납니다. 또한, Gemini 2.0 Flash-Lite는 비용 효율성을 중시하는 사용자에게 적합한 선택지입니다.

    Gemini 2.0 모델 벤치마크 결과

    https://developers.googleblog.com/en/gemini-2-family-expands/

     

    Gemini 2.0: Flash, Flash-Lite and Pro- Google Developers Blog

    Gemini Google AI Studio AI Announcements Imagen 3 arrives in the Gemini API Feb. 6, 2025

    developers.googleblog.com

    4. Gemini 2.0 사용 방법

    Gemini 2.0 모델은 Google AI Studio와 Vertex AI Studio, Gemini App 등에서 사용할 수 있습니다.

    1) Google AI Studio: 프로토타입 제작 및 실험에 적합합니다. API 키 관리, 모델 탐색, 간단한 코드 편집기 등 Gemini 모델을 빠르게 시작하고 테스트하는 데 필요한 기본적인 도구를 제공합니다.

    Google AI Studio

    2) Vertex AI Studio: 프로덕션 배포를 위한 엔터프라이즈급 플랫폼으로, 모델 학습, 배포, 모니터링, 데이터 관리 등 AI 모델의 전체 수명 주기를 관리하기 위한 포괄적인 도구와 서비스를 제공합니다.

    Vertex AI Studio

    다음은 Gemini API와 Streamlit 웹 애플리케이션을 이용해서 만든 Gemini-2.0-Pro-Exp-02-05 챗봇입니다. 코드를 app.py로 저장하고 가상환경을 활성화한 후, Gemini_API_KEY를 .env파일에 설정한 다음, 아래 명령어로 패키지를 설치하고, "streamlit run app.py" 명령어로 실행하면 됩니다. 

    pip install streamlit openai python-dotenv
    import streamlit as st
    from openai import OpenAI
    from dotenv import load_dotenv
    import os
    
    # .env 파일 로드
    load_dotenv()
    
    # Gemini API 클라이언트 초기화
    client = OpenAI(
        api_key=os.getenv("GEMINI_API_KEY"),
        base_url="https://generativelanguage.googleapis.com/v1beta/openai/"
    )
    
    st.title("Gemini-2.0-Pro-Exp-02-05 챗봇")
    
    # 세션 상태 초기화
    if "messages" not in st.session_state:
        st.session_state.messages = [
            {"role": "system", "content": "You are Gemini-2.0-Pro-Exp-02-05, a helpful AI assistant"}
        ]
    
    # 이전 대화 메시지 표시
    for message in st.session_state.messages[1:]:
        with st.chat_message(message["role"]):
            st.markdown(message["content"])
    
    # 사용자 입력 처리
    if prompt := st.chat_input("메시지를 입력하세요"):
        st.session_state.messages.append({"role": "user", "content": prompt})
        with st.chat_message("user"):
            st.markdown(prompt)
    
        # 응답을 위한 빈 메시지 컨테이너 생성
        with st.chat_message("assistant"):
            message_placeholder = st.empty()
            full_response = ""
    
            # Gemini API 스트림 호출 및 응답
            try:
                stream = client.chat.completions.create(
                    model="gemini-2.0-pro-exp-02-05",
                    messages=st.session_state.messages,
                    stream=True
                )
                
                # 스트림으로 들어오는 응답을 실시간으로 표시
                for chunk in stream:
                    if chunk.choices[0].delta.content is not None:
                        full_response += chunk.choices[0].delta.content
                        message_placeholder.markdown(full_response + "▌")
                
                # 최종 응답 표시
                message_placeholder.markdown(full_response)
                
            except Exception as e:
                message_placeholder.markdown(f"에러 발생: {e}")
                full_response = f"에러 발생: {e}"
    
        st.session_state.messages.append({"role": "assistant", "content": full_response})

    Gemini-2.0-Pro-Exp-02-05 챗봇

    5. Gemini 2.0-Pro-Exp 성능 테스트

    다음은 Gemini 2.0-Pro-Exp 코딩, 수학, 추론 성능을 테스트해 보겠습니다. 코딩은 코딩 교육 사이트 edabit.com의 Python, JavaScript, C++ 문제를 통해 테스트하고, 수학 문제는 기하학, 확률, 수열, 최적화, 복합 문제 등으로 구성된 6개의 문제를 사용했습니다. 추론 문제도 총 6문제이고, 모든 답은 재시도 없이 첫 번째 시도의 채점 결과를 그대로 반영하였습니다.

     

    1) 코딩 테스트

    Python Expert 난이도 응답
    JavaScript Expert 난이도 응답
    Python Expert 난이도: Pass
    JavaScript Expert 난이도: Pass
    C++ Expert 난이도: Fail

    Gemini-2.0-Pro-Exp Medium Hard Very Hard Expert
    Python Pass Pass Pass Pass
    JavaScript Pass Pass Pass Pass
    C++ Pass Pass Pass Fail

    코딩 테스트 결과 Gemini 2.0-Pro-Exp은 C++ Expert 난이도를 제외하고 모든 난이도 문제를 성공하였습니다. 

     

    2) 수학 및 추론 테스트

    수학 수열문제 응답: Pass
    수학 복합문제 응답: Pass

    No. 문제 구분 문제 Gemini-2.0-
    Pro-Exp


    1
    기초 대수 문제 두 숫자 x와 y가 있습니다. 이들이 만족하는 식은 3x+4y=12이며, x−2y=1입니다. x와 y의 값을 구하세요 Pass
    2 기하학 문제 반지름이 7cm인 원의 넓이를 구하세요. π=3.14159로 계산하세요. Pass
    3 확률 문제 주사위를 두 번 던졌을 때, 두 숫자의 합이 7이 될 확률을 구하세요. Pass
    4 수열 문제 첫 번째 항이 3이고, 공차가 5인 등차수열의 10번째 항을 구하세요. Pass
    5 최적화 문제 어떤 직사각형의 둘레가 36cm입니다. 이 직사각형의 넓이를 최대화하려면 가로와 세로의 길이는 각각 얼마여야 하나요? Pass
    6 복합 문제 복소평면에서 다음 극한값을 구하시오. lim[n→∞] (1 + i/n)^(n^2) 여기서 i는 허수단위 (i^2 = -1)입니다. Pass

    Gemini 2.0-Pro-Exp은 수학 테스트에서 기초 대수, 기하학, 확률, 수열, 최적화, 복합문제 등 6문제를 모두 성공하였습니다.

    추론 구슬문제: Pass
    추론 수학경시대회 문제: Pass

    No. 문제 Gemini-2.0-Pro-Exp
    1 5학년과 6학년 학생 160명이 나무 심기에 참가하였습니다.
    6학년 학생들이 각각 평균5그루,5학년 학생들이 각각 평균 3그루씩 심은 결과 모두 560그루를 심었습니다. 나무심기에 참가한 5,6학년 학생은 각각 몇명일까요?
    Pass
    2 베티는 새 지갑을 위해 돈을 모으고 있습니다. 새 지갑의 가격은 $100입니다. 베티는 필요한 돈의 절반만 가지고 있습니다. 그녀의 부모는 그 목적을 위해 $15를 주기로 결정했고, 할아버지와 할머니는 그녀의 부모들의 두 배를 줍니다. 베티가 지갑을 사기 위해 더 얼마나 많은 돈이 필요한가요? Pass
    3 전국 초등학생 수학경시대회가 열렸는데 영희,철수,진호 세사람이 참가했습니다. 그들은 서울,부산,인천에서 온 학생이고 각각 1등,2등,3등 상을 받았습니다. 다음과 같은 사항을 알고 있을때 진호는 어디에서 온 학생이고 몇등을 했습니까? 1) 영희는 서울의 선수가 아닙니다. 2) 철수는 부산의 선수가 아닙니다. 3)서울의 선수는 1등이 아닙니다. 4) 부산의 선수는 2등을 했습니다. 5)철수는 3등이 아닙니다. Pass
    4 방 안에는 살인자가 세 명 있습니다. 어떤 사람이 방에 들어와 그중 한 명을 죽입니다. 아무도 방을 나가지 않습니다. 방에 남아 있는 살아있는 살인자는 몇 명입니까? 단계별로 추론 과정을 설명하세요. Pass
    5 A marble is put in a glass. The glass is then turned upside down and put on a table. Then the glass is picked up and put in a microwave. Where's the marble? Explain your reasoning step by step. Pass
    6 도로에 5대의 큰 버스가 차례로 세워져 있는데 각 차의 뒤에 모두 차의 목적지가 적혀져 있습니다. 기사들은 이 5대 차 중 2대는 A시로 가고, 나머지 3대는 B시로 간다는 사실을 알고 있지만 앞의 차의 목적지만 볼 수 있습니다. 안내원은 이 몇 분의 기사들이 모두 총명할 것으로 생각하고 그들의 차가 어느 도시로 가야 하는지 목적지를 알려 주지 않고 그들에게 맞혀 보라고 하였습니다. 먼저 세번째 기사에게 자신의 목적지를 맞혀 보라고 하였더니 그는 앞의 두 차에 붙여 놓은 표시를 보고 말하기를 "모르겠습니다." 라고 말하였습니다. 이것을 들은 두번째 기사도 곰곰히 생각해 보더니 "모르겠습니다." 라고 말하였습니다. 두명의 기사의 이야기를 들은 첫번째 기사는 곰곰히 생각하더니 자신의 목적지를 정확하게 말하였습니다. 첫번째 기사가 말한 목적지는 어디입니까? Pass

    Gemini 2.0-Pro-Exp는 추론 성능 테스트에서 모두 성공하였습니다.

    구분 코딩 테스트 결과 수학 테스트 결과 추론 테스트 결과 평균
    Gemini 2.0-Pro 91.67 100 100 97.22
    DeepSeek-R1 100 100 100 100

    블로그의 테스트를 종합한 결과, Gemini 2.0-Pro-Exp는 DeepSeek-R1보다 약간 낮은 점수인 97.22점을 기록하였습니다.

    "이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

    6. 맺음말

    Gemini 2.0은 Google에서 개발한 최신 AI 모델로, 다양한 기능과 성능 향상을 제공합니다. 세 가지 주요 모델(Flash, Pro, Flash-Lite)은 멀티모달 입력, 대규모 컨텍스트 창, 도구 호출 기능 등 다양한 특징을 갖추고 있습니다. Gemini 2.0-Pro-Exp를 테스트하면서 느낀 점은 다음과 같습니다. 

    • 모델을 무료로 사용할 수 있다.
    • 최대 200만 토큰의 넓은 컨텍스트 창을 제공한다. 
    • 세계 지식 이해 및 추론 능력이 뛰어나다.

    Gemini-2.0-Pro-Exp-02-05 챗봇의 답변과 이에 대한 ChatGPT의 채점결과

    이상으로 오늘의 블로그를 마치겠습니다. 이 블로그 게시물을 통해 Gemini 2.0을 이해하시는데 도움이 되셨기를 바라면서, 저는 다음 시간에 더 유익한 정보를 가지고 다시 찾아뵙겠습니다. 감사합니다. 

     

    https://fornewchallenge.tistory.com/

     

     

    2024.12.14 - [AI 언어 모델] - 👀🔊🤖 Gemini 2.0 출시: 보고 듣고 말하는 멀티모달 라이브 챗봇을 지금 만나보세요.

     

    👀🔊🤖 Gemini 2.0 출시: 보고 듣고 말하는 멀티모달 라이브 챗봇을 지금 만나보세요.

    안녕하세요! 오늘은 구글이 최근에 발표한 멀티모달 AI 모델 Gemini 2.0에 대해 알아보겠습니다. Gemini 2.0은 2023년에 발표된 Gemini 1.0을 기반으로 한 후속 모델로, 더욱 향상된 성능과 다양한 기능을

    fornewchallenge.tistory.com

     

    728x90