작성자: Boxu Li at Macaron

소개:

Meta의 2025년 12월 개인화 업데이트는 사용자 행동이 Facebook, Instagram, WhatsApp, Messenger, 심지어 웨어러블 기기에서 콘텐츠와 광고 경험을 형성하는 방식에 있어 중대한 진화를 나타냅니다. 이번 업데이트를 통해 Meta는 생성형 AI 채팅 상호작용 - 텍스트, 음성, 시각적 프롬프트까지 - 를 직접 개인화 스택에 통합하고 있습니다. 즉, Meta의 AI에 말하는 모든 것이 곧 Meta 플랫폼에서 보는 것에 영향을 미칠 수 있습니다. 이 기사는 이러한 변혁의 기술적 구조와 UX 통합을 탐구하며, AI 채팅 신호가 Meta의 생태계 전반에서 어떻게 포착되고 처리되며 통합되는지를 설명합니다. Messenger의 Meta AI, Instagram DM, Ray-Ban 스마트 안경과 같은 제품 레이어의 예시를 통해 AI 채팅이 전통적인 신호(좋아요, 팔로우, 클릭)와 함께 핵심 개인화 레이어가 되어가는 방식을 보여줍니다. 결과적으로 제품 리더들에게 야심찬 플레이북을 제공합니다: AI 채팅을 Meta 피드와 광고의 알고리즘적 뇌에 공급하는 의도 풍부한 신호로 활용하기.

Meta의 앱(모바일 UI로 표시된 Facebook 및 Instagram)은 2025년 10월부터 사용자들에게 다가오는 변경 사항에 대해 알리기 시작했습니다. Meta의 AI 어시스턴트와의 상호작용 – 텍스트 또는 음성으로 – 을 통해 2025년 12월 16일부터 개인화된 콘텐츠와 광고를 제공할 예정입니다.

좋아요에서 채팅으로: 개인화 신호로서의 AI 대화

수년간 Meta의 추천 엔진은 당신의 탭과 클릭에서 배웠습니다 – 좋아하는 게시물, 팔로우하는 페이지, 시청하는 비디오 등. 2025년 12월 업데이트는 Meta의 AI 어시스턴트와의 대화라는 새로운 신호 범주를 추가합니다reuters.com. Messenger에서 문자로 대화하거나 Ray-Ban Meta 스마트 안경을 통해 음성 쿼리를 할 때, 이러한 상호작용은 피드를 순위 매기고 광고를 타겟팅하는 알고리즘에 적용됩니다reuters.comtechcrunch.com.

이유는 간단합니다: AI에게 물어보거나 논의하는 내용은 수동적인 신호보다 현재 관심사나 의도를 더 명확하게 드러낼 수 있습니다. 예를 들어, Meta의 어시스턴트에게 *“이 근처에서 최고의 하이킹 코스는 어디인가요?”*라고 물으면 하이킹에 대한 관심을 명확히 나타내는 것입니다. 이번 업데이트 이후, Meta는 이러한 대화 의도를 하이킹 페이지를 좋아하거나 하이킹 장비를 검색한 것과 유사하게 처리할 수 있으며, 이에 따라 콘텐츠를 조정할 수 있습니다reuters.comabout.fb.com. 실제로 Meta는 정확한 예시를 제공합니다: “Meta AI와 하이킹에 대해 대화한다면, 하이킹에 관심이 있다는 것을 알게 될 것입니다… 하이킹 그룹 추천, 친구들의 트레일 관련 게시물, 또는 하이킹 부츠 광고를 보게 될지도 모릅니다”about.fb.com. 요컨대, AI 채팅은 Meta의 개인화 알고리즘에서 소셜 및 참여 신호와 동등한 수준의 또 다른 일급 입력이 되고 있습니다.

시스템 아키텍처 관점에서, 이러한 AI 채팅 상호작용은 주제 및 맥락 신호를 추출하기 위해 자연어 이해 파이프라인을 통해 처리됩니다. 텍스트 채팅과 음성 명령 모두 키워드, 엔티티, 의도를 분석하기 위해 전사 및 분석됩니다. (음성 입력은 음성 인식을 통해 텍스트로 변환된 후 유사하게 처리됩니다.) 휴대폰 카메라나 스마트 글래스를 사용하여 Meta AI에 이미지를 공유할 경우, 시각적 콘텐츠는 컴퓨터 비전 AI에 의해 분석될 수 있으며, 도출된 통찰력(예: 문의한 제품이나 랜드마크 인식)은 관심 프로필의 일부가 됩니다techcrunch.com. Meta는 Meta AI 기능을 통해 분석된 음성 녹음, 사진, 동영상이 이번 업데이트 하에 광고 타겟팅 시스템에 사용될 것이라고 확인했습니다techcrunch.com. 본질적으로, Meta는 사용자 선호도를 감지하기 위해 생성 AI 기능을 센서로 활용하고 있습니다.

이 모든 신호는 Meta의 더 넓은 개인화 모델로 통합됩니다. 「AI와의 상호작용은 피드와 광고의 개인화에 정보를 제공할 또 다른 입력 요소가 될 것입니다」라고 Meta의 개인정보 보호 정책 관리자 Christy Harris가 설명했습니다reuters.com. 회사는 이 데이터를 활용할 전체 시스템을 아직 구축 중이라고 Harris는 언급했습니다reuters.comtechcrunch.com, 하지만 비전은 명확합니다: 대화형 상호작용은 Meta의 순위 알고리즘이 어떤 콘텐츠(및 광고)를 보여줄지 결정하는 사용자 모델을 풍부하게 합니다. 시간이 지남에 따라 모델이 이러한 신호를 가중하는 법을 배우면서, Meta AI에게 「최고의 4K TV」에 대해 묻는 것이 다음 날 Facebook 피드에서 전자 제품 콘텐츠를 크게 늘리거나 Instagram에서 TV 관련 광고를 트리거할 수 있는 상상을 할 수 있습니다.

중요한 점은, 메타가 기존의 개인화 기술에 AI 유래 신호를 추가하고 있다는 것입니다. 대체하는 것이 아닙니다reuters.comabout.fb.com. 친구나 팔로우 같은 전통적인 신호와 참여 기록은 여전히 기본입니다. 하지만 이제 AI 채팅은 클릭이나 좋아요가 놓칠 수 있는 시의성 있고 의도 풍부한 데이터를 포착하는 새로운 계층이 됩니다. 메타의 발표는 많은 사람들이 상호작용을 통해 피드가 시간이 지남에 따라 더 관련성을 갖기를 기대한다고 강조하며, “곧 AI와의 상호작용이 추천을 개선하기 위해 사용하는 또 다른 신호가 될 것”이라고 합니다about.fb.comabout.fb.com. 이번 업데이트는 사용자가 관심을 보이면(심지어 AI와의 개인 채팅을 통해서라도), 시스템이 이를 인식하고 적응해야 한다는 사용자 기대를 충족시키기 위한 것입니다.

기술 아키텍처: AI 채팅 신호의 캡처 및 처리

Blog image

기술적으로 AI 채팅 신호를 개인화에 통합하는 것은 Meta가 데이터 파이프라인과 모델을 확장해야 했습니다. 캡처 단계는 상호작용 시점에서 시작됩니다: Meta AI는 여러 컨텍스트(채팅 스레드, 음성 인터페이스, 카메라)에 존재하며, 각 컨텍스트는 사용자의 쿼리와 어시스턴트의 응답에 대한 로그를 생성합니다. Meta의 시스템은 이러한 교환의 사용자 측을 분석을 위해 플래그할 가능성이 높습니다. 텍스트 쿼리는 자연어 처리(NLP) 시스템으로 직접 들어가며, 음성 쿼리는 앞서 언급한 대로 음성인식 시스템을 거칩니다about.fb.comabout.fb.com. AI가 시각적으로 사용되는 경우(예: 스마트 안경을 통해 “이 사진에서 무엇을 보나요?”), 이미지 인식 모델이 시각적 입력을 처리하고 해석된 결과(예: “사용자가 카페 입구 식별에 관심을 보임”)는 개인화 엔진에 입력될 수 있는 텍스트 메타데이터가 됩니다techcrunch.com.

다음은 처리 및 추론 단계입니다. Meta의 AI 백엔드는 대화를 분석하여 주제나 의도를 추론합니다. 이를 실시간 관심 추출이라고 생각할 수 있습니다. AI는 '하이킹'에 대한 대화를 하이킹/야외 활동 카테고리에 관심이 있다고 태그할 수 있습니다. 이는 자유 형식의 대화를 구조화된 관심 신호로 매핑하는 대형 언어 모델이나 분류기를 포함할 가능성이 높습니다. 실제로 이러한 매핑을 구축하는 것은 진행 중인 작업의 일부입니다. Harris는 Meta가 이러한 AI 상호작용이 광고 제품을 어떻게 정확히 개선할 것인지 여전히 개발 중이라고 밝혔습니다techcrunch.com. Meta의 광고 시스템은 이미 관심사에 대한 분류 체계를 가지고 있습니다 (예: '하이킹 & 야외 활동'이라는 광고 타겟 카테고리). AI 채팅은 사용자를 이러한 카테고리에 맞추기 위한 명확한 단서를 제공합니다.

메타의 개인정보 공개는 처리의 경계를 명확히 구분합니다. 메타 AI와의 대화 중 일부 민감한 주제(예: 종교, 건강, 성적 지향, 정치)와 관련된 대화는 광고 타겟팅 용도로는 제외됩니다reuters.comtheverge.com. 시스템은 정책 위반이나 윤리적 문제를 일으킬 수 있는 신호를 생략하거나 정제하도록 설계되었습니다. (이러한 상호작용은 여전히 콘텐츠 추천을 개선하거나 단순히 무시될 수 있습니다. 메타는 피드 개인화에서도 이를 제외할지 구체적으로 밝히지 않았지만, 유사하게 신중한 접근을 따르는 것으로 보입니다.) 또한, 암호화된 개인 메시지는 손대지 않습니다 – 메타는 WhatsApp이나 Messenger에서 종단 간 암호화된 채팅은 이 AI 신호 기능을 위해 처리되지 않는다고 명확히 밝혔습니다theverge.com. AI 어시스턴트 챗봇(메타 서비스)과의 상호작용만 카운트되며, 그마저도 사용을 선택한 경우에만 해당됩니다.

추출 후, 통합 단계는 이러한 신호들을 Meta의 개인화 모델에 결합합니다. Meta의 피드 순위 및 광고 전달 시스템은 수십 개, 많으면 수백 개의 사용자와 콘텐츠에 대한 특징을 고려하는 머신러닝 모델에 의해 구동됩니다. 이제 "interest_in_hiking=True (최근 AI 채팅)"과 같은 특징이 프로필에 추가될 수 있습니다. Meta의 공식 설명에 따르면 AI 채팅 상호작용은 "좋아요 및 팔로우와 같은 기존 데이터에 추가되어" 유기적 콘텐츠와 광고 모두에 대한 추천을 형성할 것입니다. 실질적으로, 피드 생성기나 광고 선택 알고리즘이 실행될 때, AI로부터 파생된 관심사를 입력의 일부로 취급하게 됩니다.

주목할 만한 측면 중 하나는 최신성과 맥락입니다. 오늘 하이킹에 대한 대화는 현재의 의도를 나타내지만, 5년 전의 페이지 좋아요는 오래된 신호일 수 있습니다. AI 채팅 신호는 단기 개인화를 위해 더 중요하게 고려될 수 있습니다(“순간의” 관심사). Meta의 Mark Zuckerberg는 2025년 초에 개인화와 음성 대화가 Meta AI를 "선도적인 개인 AI"로 만드는 데 핵심 초점이라고 밝혔습니다reuters.comtechcrunch.com. 이는 시스템이 AI와의 마지막 대화를 즉시 반영하려고 노력할 것임을 의미합니다. 예를 들어, 이번 주에 Meta AI에게 이탈리아 요리 레시피를 물어보면, 다음 며칠 동안 더 많은 요리 비디오나 레스토랑 추천이 나타날 수 있으며, 이는 신선한 의도와 일치합니다.

계정 센터를 통한 앱 전반의 통합 개인화

Meta 접근 방식의 주요 강점 중 하나는 이러한 AI 신호의 앱 간 통합입니다. Meta의 계정 센터는 사용자의 Facebook, Instagram, Messenger, 그리고 선택적으로 WhatsApp 계정을 연결하는 기능으로, 개인화를 통합하는 다리 역할을 합니다. Meta에 따르면, 계정 센터에 계정이 연결되어 있으면 한 플랫폼에서의 Meta AI와의 상호작용이 다른 플랫폼의 추천에 영향을 미칠 수 있습니다theverge.comtheverge.com. 예를 들어, WhatsApp에서 Meta AI와의 1:1 대화는 연결된 계정이 있는 한 나중에 Facebook에서 보는 광고나 콘텐츠에 영향을 미칠 수 있습니다. Meta의 말에 따르면: “우리는 Meta AI와의 상호작용을 포함한 정보를 선택한 계정을 동일한 계정 센터에 추가하여 Meta 회사 제품 전반에 걸쳐 사용합니다.”about.fb.com 이는 Instagram과 Facebook을 통합된 계정 하에 유지하면 Instagram에서 AI와 대화하는 것이 Facebook 피드에도 영향을 줄 수 있다는 것을 의미합니다. 그러나 WhatsApp을 별도로 유지(계정 센터에 추가하지 않음)하면 WhatsApp에서 AI와의 대화가 Facebook이나 Instagram 개인화에 영향을 미치지 않습니다about.fb.com.

제품 관점에서 이 앱 간 데이터 흐름은 강력합니다. 메타는 소셜 네트워킹(Facebook), 비주얼 디스커버리(Instagram), 개인 메시지(WhatsApp/Messenger), 심지어 하드웨어(스마트 안경)를 통해 사용자 선호도를 360도 시각으로 파악할 수 있습니다. AI 어시스턴트는 이러한 모든 플랫폼에 존재하며, 약간 다른 맥락에서 신호를 수집하지만 궁극적으로는 하나의 개인화된 브레인으로 통합됩니다(계정 연결 및 지역 개인정보 보호 규칙에 따라 다름). 상상해보세요: 메신저의 Meta AI에게 휴가 아이디어를 물어보면, 다음에 Instagram을 열 때 탐색 페이지에 여행 릴이 나타나거나 피드에 호텔 광고가 뜰 수 있습니다. 또는 Ray-Ban 안경의 Meta AI를 사용하여 자전거를 탄 사람을 보고 “저건 어떤 종류의 자전거죠?”라고 물으면, 나중에 Facebook이 자전거 그룹을 추천하거나 e-바이크 브랜드의 광고를 보여줄 수 있습니다. 메타는 AI 상호작용을 연결 고리로 하여 앱과 기기 전체를 하나의 통합된 개인화 네트워크로 만들고 있습니다.

이 전략은 일부 지역의 개인정보 보호 규정에 의해 부분적으로 제약을 받는다는 점을 주목할 만합니다. AI를 활용한 개인화의 도입은 유럽연합, 영국, 한국에서는 초기에 이루어지지 않습니다reuters.comtheverge.com. 이는 더 엄격한 데이터 법률과 명확한 사용자 동의의 필요성 때문일 가능성이 높습니다. 그러나 대부분의 다른 시장에서는 Meta가 교차 플랫폼 데이터 통합을 전면 추진하고 있습니다. 사용자와 제품 이해관계자에게 이는 앱 간의 전통적인 경계가 흐려진다는 것을 의미하며, 사용자의 “어시스턴트 페르소나”가 다양한 경험을 통해 함께 이동합니다. Meta의 계정 센터는 AI로 강화된 관심 프로필의 허브가 됩니다.

제품 계층 예시: AI 채팅과 UX의 만남

실제로 이러한 AI 채팅 신호가 수집되는 방식을 이해하기 위해, Meta가 자사 제품 전반에 AI를 어떻게 통합했는지 살펴보겠습니다:

  • Messenger 및 WhatsApp의 Meta AI: 이 메시징 앱에서는 Meta AI가 채팅 연락처로 존재하며, 기본적으로 언제든지 메시지를 보낼 수 있는 내장 챗봇입니다. 2023년 말에 널리 출시된 이 어시스턴트는 일반적인 질문에 답하고, 추천을 제공하거나 가벼운 대화를 나눌 수 있습니다. 사용자가 이 채팅을 열고 질문을 입력하거나(마이크 아이콘을 눌러 질문을 음성으로 입력할 수도 있습니다) 할 때마다 그 상호작용은 새로운 데이터 포인트가 됩니다. 예를 들어, 사용자가 Messenger에서 "Hey Meta, 브이로그를 위한 카메라를 구매하려면 어떤 것이 좋을까요?"라고 물어볼 수 있습니다. 이러한 텍스트 쿼리는 개인화에 있어 금광 같은 정보입니다. 카메라와 콘텐츠 제작에 대한 관심을 드러내기 때문입니다. Meta에 따르면, WhatsApp 및 Messenger와 같은 앱에서 Meta AI와의 일대일 대화는 이 업데이트에 따라 다른 플랫폼에서 광고나 추천을 제공하는 데 사용될 수 있습니다 (연결된 경우)theverge.comtheverge.com. UX 관점에서 Meta AI와의 채팅은 검색 엔진이나 광고를 클릭하는 것 같은 느낌이 들지 않으며, 더 자연스러운 언어와 사용자 주도적입니다. 하지만 그 뒤에서 그 채팅은 나중에 Instagram에서 카메라 광고를 보는 것으로 이어질 수 있습니다. 제품 리더들은 Meta가 유틸리티 기능(AI Q&A in chat)을 추천 시스템의 은밀한 피드백 루프로 변환한 방법을 주목해야 합니다. 사용자 경험은 여전히 유용한 지원을 제공하며, Meta의 모델은 이를 관심사의 명시적 피드백 설문조사로 취급합니다.
  • Instagram에서의 AI 상호작용 (예: DM 및 Threads): Instagram은 Direct Messages에 Meta AI를 통합하여 사용자가 Messenger와 유사하게 어시스턴트와 채팅할 수 있도록 했습니다. 인플루언서가 Meta AI에게 창의적인 아이디어를 요청하거나 십대가 숙제 도움을 요청하는 것을 상상해 보세요. 이러한 주제는 Instagram Explore에 나타날 내용이나 Stories를 스크롤할 때 마주치는 광고를 형성할 수 있습니다. 더 나아가, Instagram은 그룹 채팅에서 AI 챗봇과 창의적 도구(이미지 스티커 생성이나 사진 캡션 생성 등)로 AI를 테스트하고 있습니다. 이러한 창의적이거나 대화형 프롬프트는 IG에서 새로운 신호입니다. 사용자가 AI를 통해 이미지를 생성할 때(Meta에는 AI 이미지 생성 도구 "Imagine"이 있습니다techcrunch.com), 그 프롬프트의 텍스트조차도 선호도를 드러낼 수 있습니다(예: "빈티지 90년대 패션 스타일 이미지"를 요청하면 향수나 패션에 대한 관심을 시사합니다). TechCrunch 보고서에 따르면 Meta는 AI 이미지 생성 제품(“Imagine”이라고 함)과 AI 비디오 피드(“Vibes”라고 함)에서 데이터를 사용하여 광고를 타겟팅할 수 있습니다techcrunch.com. 따라서 Meta의 도구를 통해 많은 애니메이션 스타일의 AI 이미지를 생성하는 사람은 더 많은 애니메이션 또는 미술 공급 콘텐츠를 타겟팅 받을 수 있습니다. Instagram의 핵심 UX는 시각적이고 발견 중심적입니다. AI 생성 도구를 여기에 결합함으로써 Meta는 이전에는 쉽게 포착할 수 없었던 창의적 관심에 대한 통찰력을 얻습니다.
  • Ray-Ban Meta 스마트 안경(음성 및 비전): 2023년 9월 및 2025년에 Meta는 Ray-Ban과 협력하여 Meta AI 어시스턴트를 음성으로 통합한 스마트 안경을 출시했습니다. 이 안경은 착용자가 소리내어 질문할 수 있게 하며("Hey Meta" 음성 명령으로), 심지어 오디오로 답을 받을 수 있습니다. 중요한 점은 최신 세대가 카메라를 포함하고 있으며 AI가 사용자가 보고 있는 것을 식별하거나 설명할 수 있다는 점입니다. 예를 들어, 랜드마크 사진을 찍거나 제품 바코드를 스캔하고 Meta에게 "이게 뭐야?" 또는 "온라인에서 이게 얼마야?"라고 물어볼 수 있습니다. 안경의 음성 녹음 및 시각적 분석은 새로운 정책에서 광고 입력으로 명시적으로 언급됩니다techcrunch.com. 이는 예를 들어, 스마트 안경을 사용하여 레스토랑을 보고 Meta AI에게 리뷰를 요청하면 Meta는 해당 레스토랑이나 요리에 대한 관심을 기록합니다. 나중에, 사용자의 피드에는 음식 축제가 제안되거나 식사 앱의 광고가 나타날 수 있습니다. 여기서 UX는 원활합니다 – 사용자가 세상과 상호작용하고 안경의 AI가 도움을 주지만, 그 과정에서 Meta는 사용자의 물리적 세계 관심사에 대한 창을 제공합니다. 이 안경은 효과적으로 시각적 경험을 디지털 신호로 변환합니다. 안경을 통해 "근처 커피숍"을 자주 찾는 사용자는 곧 Facebook 피드에서 스타벅스 쿠폰을 볼 가능성이 높습니다.

일러스트: Meta가 AI를 기기와 앱 전반에 통합함에 따라 가벼운 대화나 음성 쿼리도 개인화 신호가 될 수 있습니다. Meta의 생태계(Facebook, Instagram, WhatsApp, Messenger, Ray-Ban 스마트 안경)는 이제 통합된 네트워크로 작용하며, 사용자의 클릭과 대화에서 지속적으로 학습합니다.

  • 그룹 및 커뮤니티 맥락에서의 메타 AI: 일대일 대화를 넘어서, 메타는 AI를 더 사회적인 맥락에서도 탐구하고 있습니다. 예를 들어, 페이스북 메신저에서는 AI 어시스턴트(테마가 있는 페르소나 포함)를 그룹 채팅에 초대하여 논쟁을 해결하거나 콘텐츠를 생성할 수 있습니다. 세부 사항은 아직 드물지만, 누군가 그룹 채팅에서 AI에게 '볼 만한 좋은 영화가 뭐야?'라고 물으면, 그것이 나중에 그들의 페이스북 워치 추천에 영향을 미칠 수 있습니다. 페이스북 그룹 자체도 결국 AI 도우미를 가질 수 있으며, 요리 그룹에서 AI에게 레시피를 묻는 것과 같은 상호작용은 그 개인의 프로필에 반영될 것입니다. 메타의 더 긴 전략은 AI를 피드에 직접 통합하는 것입니다. 예를 들어, AI가 큐레이션한 비디오 피드인 **“바이브스”**가 AI 생성 단편 비디오를 위해 출시되었습니다theverge.com. 사용자 행동(어떤 AI 비디오를 시청하거나 리믹스하는지)이 또 다른 신호 루프가 됩니다. 이러한 예시는 AI가 단순히 별도의 채팅 앱이 아니라 메타 제품의 사회적 구조에 얽혀있음을 보여줍니다. 각 접점이 도구화되어 있습니다.

AI를 핵심 개인화 계층으로 활용

AI 채팅 신호를 개인화 스택에 도입하면, 메타의 전통적인 순위 신호 위에 새로운 계층을 효과적으로 만듭니다. 현재 계층이 어떻게 쌓여 있는지 살펴보겠습니다:

  • 소셜 그래프 레이어: 팔로우하거나 친구가 되는 사람이 전통적으로 기본 콘텐츠를 결정합니다 (친구의 게시물, 팔로우한 페이지의 게시물).
  • 행동 레이어: 좋아요, 공유, 댓글, 체류 시간과 같은 상호작용이 유사한 콘텐츠나 광고의 추천에 영향을 줍니다. 이는 협업 필터링과 예측 모델의 영역으로, X를 좋아했다면 Y도 좋아할 수 있습니다.
  • 맥락 및 인구통계 레이어: 위치, 나이, 기기와 같은 기본 정보와 시간대나 트렌드 주제 같은 맥락 신호가 그 순간의 관련 콘텐츠를 결정합니다.
  • AI 채팅 레이어 (신규): AI에게 사용자의 필요, 질문, 호기심을 명시적으로 전달하는 부분입니다. 이 레이어는 의도 중심적이며, 사용자가 자연스럽게 “무엇을 보고 싶나요?”라고 묻는 것과 비슷합니다. 여러 번의 클릭 없이도 직접적인 관심 지표를 제공합니다; 사용자의 자체적인 말로 의도를 설명합니다.

메타는 본질적으로 이 AI 채팅 레이어를 다른 것들과 동등한 수준으로 끌어올리고 있습니다. 메타의 관점에서 이러한 상호작용은 "곧" "모든 플랫폼"의 신호의 일부가 되어 추천을 개선할 것입니다about.fb.com. 마크 저커버그는 2025년 주주총회에서 메타가 메타 AI를 "선도적인 개인 AI"로 만들고자 한다며 개인화 및 음성 대화에 큰 중점을 두고 있다고 강조했습니다techcrunch.com. 이는 메타가 음성과 채팅 입력을 미래 사용자들이 피드를 구성하는 데 필수적인 요소로 본다는 강력한 힌트이며, 버튼을 클릭하는 것보다 더 중요한 요소가 될 가능성이 큽니다. 본질적으로, AI 채팅은 플랫폼 내 좋아요 및 게시물처럼 개인화를 위한 1차 데이터 소스로 취급되고 있습니다.

우리는 검색 엔진과의 유사점을 그릴 수 있습니다: Google에 쿼리를 입력하는 것은 오랫동안 Google의 광고 타겟팅과 콘텐츠 제안을 위한 의도 신호였습니다. Meta는 이제 전통적인 검색 엔진 없이 채팅을 통해 자체 '쿼리 스트림'을 얻고 있습니다. 검색 키워드 대신 Meta는 대화형 쿼리를 얻습니다. 제품 리드 관점에서 보면, 이는 Meta가 자체 플랫폼에 원주민화된 의도 수확 메커니즘을 구축하는 것입니다. 사용자는 더 이상 다른 곳으로 가서 검색할 필요가 없습니다. Meta의 AI에게 질문하면 Meta는 그 의도를 내부적으로 포착하고 즉시 자체 앱에서 관련 제품이나 커뮤니티를 보여줌으로써 루프를 완성할 수 있습니다.

사용자 경험 및 디자인 고려사항

AI 채팅을 개인화 신호로 통합하는 것은 신중한 UX 커뮤니케이션을 필요로 했습니다. Meta는 이 변화를 사용자에게 알리기 위해 노력했습니다. 이는 그 중요성을 보여주는 이례적인 조치입니다. 2025년 10월 초부터 사용자들은 Meta의 AI와의 상호작용이 콘텐츠와 광고를 개인화하는 데 사용될 수 있음을 설명하는 앱 내 알림과 이메일을 받았습니다about.fb.comabout.fb.com. 위에 표시된 알림은 추천을 개선하기 위한 AI 기반의 향상임을 명확히 하며, 사용자가 이해하거나 조정할 수 있는 시간을 제공합니다(2025년 12월 16일까지). Meta는 또한 사용자에게 광고 환경 설정을 조정하거나 피드 컨트롤을 사용하여 자신이 보는 것을 조정할 수 있는 방법을 강조했습니다about.fb.comabout.fb.com. 그러나 AI 기능을 전혀 사용하지 않는 것 외에는 AI 채팅 사용을 선택 해제할 수 없습니다theverge.comtechcrunch.com. 이러한 디자인 선택 – 선택 해제 불가 – 는 Meta가 이것을 그들의 제품 경험의 핵심으로 믿고 있음을 강조합니다. 그들의 AI와 상호작용하면, 이는 암묵적으로 개인화 계약의 일부가 됩니다.

UX 통합 관점에서 Meta는 이러한 AI 상호작용을 자연스럽고 유익하게 느껴지도록 시도하고 있습니다. 이 어시스턴트는 사용자의 경험을 더 편리하고 재미있게 만들어주는 것으로 그려집니다(작업 수행 도움, 엔터테인먼트 등), 반면 보이지 않게 백그라운드에서 알고리즘을 조정합니다. 이상적으로는 사용자가 그들의 피드가 더 관심 있는 것들로 관련성이 높아지는 것을 알아차릴 뿐, “페이스북이 내가 봇에게 하이킹에 대해 물어본 직후 부츠를 보여줬다”는 느낌을 받지 않도록 합니다. Meta의 프라이버시 센터 메시지는 음성 AI의 마이크 접근이 허가받고 활성화된 경우에만 이루어진다고 보장합니다about.fb.com, “항상 듣고 있다”는 개념을 사전에 차단하려고 합니다(이는 종종 음성 어시스턴트를 괴롭히는 우려입니다). 제품 디자인의 도전 과제는 사용자가 AI를 침입적인 스파이보다는 신뢰할 수 있는 친구로 보는 것을 보장하는 것입니다. Meta는 사용자에게 알림을 제공하고 광고 관심사를 검토할 수 있는 일부 권한을 허용하여 이것을 투명성 있게 탐색하고 있습니다(사용자는 AI 대화에서 추론한 주제를 포함하여 광고 환경 설정에서 주제를 보고 제거할 수 있습니다).

마지막으로, 성능과 반복에 대해 언급해야 합니다. 메타는 이 데이터를 사용할 첫 번째 제공을 구축하는 과정에 있다고 밝혔습니다reuters.com. 초기에는 그 효과가 미미하거나 제한적일 수 있습니다. 2025년 말 기준, 매달 10억 명 이상의 사람들이 메타 AI를 사용하고 있습니다reuters.comabout.fb.com, 이는 방대한 양의 대화를 생성합니다. 이 데이터를 추천 엔진에 효과적으로 통합하려면 시간과 머신러닝 실험이 필요합니다. 우리는 지속적인 조정을 기대할 수 있습니다. 메타의 AI 모델은 대화 신호와 클릭의 가중치를 어떻게 조절할지, 오래된 대화의 영향을 어떻게 줄일지, 주제와 상관없는 대화를 어떻게 처리할지를 학습하게 됩니다. 제품 측면에서도 새로운 기능이 등장할 것입니다. 예를 들어, 메타가 당신이 AI에게 직접적으로 답할 수 없는 질문을 했다는 것을 알게 되면, 해당 주제와 관련된 사용자 생성 콘텐츠를 피드에 보여줄 수 있습니다. (“당신이 메타 AI에게 정원 가꾸기 팁에 대해 물었습니다 – 여기 당신이 좋아할 만한 인기 있는 정원 가꾸기 그룹이 있습니다”). 제품 리더들은 AI 기반의 개인화 향상의 물결을 예상해야 하며, 이는 검색/추천 기능을 본질적으로 혼합하는 것입니다. 메타의 개인화 스택은 점점 더 대화형으로, 예측적이고, 통합적으로 변모하고 있습니다.

요약하자면, Meta의 2025년 12월 업데이트는 AI 채팅 상호작용을 개인화 제품 전략의 핵심 요소로 확립합니다. 사용자와 AI 간의 상호작용에서 텍스트, 음성, 시각 신호를 포착하여 Meta는 실시간으로 사용자 의도를 더욱 깊이 이해합니다. 이 기술 아키텍처는 이러한 신호를 다른 사용자 활동과 유사하게 수집하지만, 직접적인 표현이라는 이점을 가지고 있습니다. Accounts Center를 통해 Meta는 이를 앱 패밀리 전반에 걸쳐 통합하여 개별 제품을 단일 개인화 생태계로 변화시킵니다. Messenger에서 스마트 글래스까지의 제품 사례는 통합의 폭을 보여줍니다. 사용자가 대화하거나 질문할 수 있는 곳이면 어디에서든 개인화의 금광을 발굴할 수 있습니다. 제품 리더에게 이것은 전통적인 피드백 루프의 확장을 나타냅니다. 우리는 더 이상 암시적 신호에만 의존하지 않으며, 이제 사용자가 원하는 바를 적극적으로 활용합니다. Meta의 개인화 스택은 사용자가 무엇을 하는지를 관찰하는 것에서 그들이 말하는 것을 듣는 것으로 발전했습니다. Meta와 다른 기업들의 앞으로의 전략은 이러한 AI 상호작용을 정교화하고, 프라이버시를 균형 있게 유지하며, 결과적으로 더 스마트하고 맞춤화된 경험이 기다리고 있음을 사용자에게 지속적으로 입증하는 것을 포함할 것입니다. Meta는 AI 채팅이 개인화를 반응적에서 능동적으로 전환할 것이라고 믿고 있으며, 이 변화가 진행됨에 따라 모든 좋아요, 팔로우, 그리고 이제 모든 채팅이 사용자의 여정을 형성하는 데 중요한 역할을 할 것입니다reuters.comemarketer.com.

지원하기 Macaron 의 첫 친구들