🤖
1248 in / 4027 out / 5275 total tokens
AI 업데이트: 구글의 계정 생성 벽, 그리고 현장 학습의 가치
🔥 핫 토픽
Gmail 가입, 이제 QR 코드와 SMS 발송이 필수가 되다
구글이 Gmail 계정 생성 프로세스를 또 한 번 강화했다. 기존에는 SMS를 수신해서 인증 코드를 확인하는 방식이었는데, 이제는 QR 코드를 스캔하고 발신자 입장에서 SMS를 보내야 한다. 일반 사용자 입장에서는 번거로워진 것이고, 자동화 스크립트 입장에서는 사실상 계정 생성이 불가능해진 셈이다. 왜냐하면 SMS 발송은 비용이 발생하고, 전화번호 하나당 발송 가능한 건수에 제한이 있기 때문이다. 이는 구글이 AI를 악용한 대량 스팸 계정 생성과 싸우고 있다는 명확한 신호다. LLM이 등장한 이후, CAPTCHA 우회, 자동화된 가입, 스팸 콘텐츠 생성이 폭발적으로 증가했고, 구글은 이를 원천 차단하려는 것이다. 하지만 이건 양날의 검이다. 프라이버시를 중시하는 사용자나, 개발도국에서 전화번호가 없는 사용자들은 구글 서비스 접근 자체가 차단될 수 있다. 실제로 PrivacyGuides 커뮤니티에서는 "구글이 선택이 아니라 강제"라고 비판하는 목소리가 많다.
게임 개발자 관점에서 보면, 이 변화는 소셜 로그인 연동에도 영향을 미칠 수 있다. 우리 게임에서 "Google로 로그인" 버튼을 달아놨다면, 신규 유저 온보딩 과정에서 마찰이 생길 가능성이 높다. 특히 글로벌 출시를 노리는 인디 게임이라면, 전화번호가 없는 10대 유저나 프라이버시에 민감한 유저층을 잃을 수 있다. 서버 아키텍처 측면에서도, 자동화된 테스트 계정 생성 파이프라인을 구축해둔 팀이라면 대대적인 수정이 필요할 것이다. 필자도 QA 자동화를 위해 Gmail 계정을 프로그래밍으로 생성하던 시절이 있었는데, 지금은 상상도 못 할 일이 됐다.
이 뉴스가 중요한 이유는, AI 시대에 "인간 증명"이 얼마나 비용이 높아지고 있는지를 보여주기 때문이다. 구글뿐 아니라 Cloudflare의 Turnstile, Apple의 Private Access Token 등, 업계 전반이 "이 사용자가 진짜 인간인가?"를 확인하는 데 엄청난 리소스를 쏟고 있다. 이건 결국 개발자에게도 전가된다. 우리가 인증 시스템을 설계할 때, "보안 vs 접근성"의 트레이드오프를 이전보다 훨씬 더 깊이 고민해야 한다는 뜻이다.
📰 뉴스
Simon Willison: "현장에서 배우는 것" (Learning on the Shop Floor)
Simon Willison이 자신의 블로그에 "Learning on the Shop floor"라는 글을 올렸다. 핵심 메시지는 간단하다. 기술을 배울 때는 이론서를 읽는 것보다, 실제 프로젝트에서 삽질하는 게 더 빠르다는 것이다. 그는 LLM 시대에 이 점이 더욱 중요해졌다고 강조한다. ChatGPT나 Claude에게 "Python 기초를 알려줘"라고 묻는 것보다, 당장 자신이 필요한 스크립트를 하나 짜보면서 모르는 것을 그때그때 물어보는 편이 학습 효율이 압도적으로 높다는 이야기다. Willison은 이걸 "shop floor learning"이라고 부르는데, 공장 현장에서 겪으며 배우는 도제식 교육에 빗댄 표현이다.
이건 필자의 경험과 정확히 일치한다. UE5 C++를 처음 배울 때, 공식 문서를 처음부터 끝까지 읽는 시도를 했는데 3일 만에 포기했다. 대신 당장 만들고 싶었던 "투사체 반사 시스템"을 구현하려고 뛰어들었다. 그 과정에서 OnComponentHit 델리게이트, FHitResult 구조체, 콜리전 채널 설정 등을 자연스럽게 익혔다. 실패도 많았다. 투사체가 캐릭터를 뚫고 지나가는 버그에 3일을 날렸고, 결국 SpawnParams.Owner 설정을 안 해줘서 생긴 문제라는 걸 나중에 알았다. 이런 삽질이 이론 학습보다 기억에 10배는 더 깊이 박힌다.
Willison이 특히 강조하는 포인트는, LLM이 이 "현장 학습"을 극적으로 가속화한다는 것이다. 예전에는 에러 메시지를 구글링하고 StackOverflow를 뒤지느라 시간을 날렸다면, 지금은 에러 로그를 그대로 Claude에 붙여넣기만 해도 된다. 그럼 Claude가 "이 에러는 콜리전 채널 설정 문제일 가능성이 높다. 프로젝트 세팅에서 다음 항목을 확인해보라"라고 구체적으로 알려준다. 물론 틀린 답을 줄 때도 있다. 하지만 그 틀린 답을 검증하는 과정에서도 학습이 일어난다. 필자의 AI 사이드프로젝트에서도, LangChain 문서를 읽는 것보다 당장 RAG 파이프라인을 망가뜨려보면서 고치는 게 더 빨랐다.
이 글이 지금 시점에서 의미 있는 이유는, AI로 인해 "학습 곡선" 자체가 변하고 있기 때문이다. 앞서 언급한 구글의 계정 생성 벽과도 연결된다. AI가 자동화를 쉽게 만든 탓에, 플랫폼들은 인간을 증명하기 위해 더 높은 벽을 세우고 있다. 그만큼 "진짜 인간이 직접 삽질한 경험"의 가치가 올라가는 역설적인 상황이다. 아무리 LLM이 코딩을 도와줘도, 시스템 전체를 이해하고 아키텍처를 설계하는 건 결국 인간의 몫이다. 그 능력은 현장에서만 길러진다.
💭 두 뉴스를 관통하는 키워드: "인간의 경험"
구글의 인증 강화는 AI와 자동화에 대한 방어막이고, Willison의 글은 AI를 활용하면서도 인간의 직접 경험을 강조하는 학습론이다. 방향은 다르지만, 둘 다 같은 질문을 던지고 있다. "AI가 다 해줄 수 있는 세상에서, 인간이 직접 해야 하는 건 뭔가?"
필자의 답은 이렇다. 인간은 "문제를 정의하고, 망가뜨려보고, 그 과정에서 직관을 쌓는" 역할을 해야 한다. AI는 도구다. 훌륭한 도구지만, 도구다. UE5의 블루프린트가 코딩 없이 게임 로직을 짤 수 있게 해줘도, 결국 성능 병목을 찾아내고 최적화하는 건 C++로 삽질해본 인간의 몫이다. 마찬가지로, LLM이 코드를 짜줘도, 그 코드가 프로덕션 환경에서 어떻게 동작할지 예측하는 건 직접 서버를 굴려본 사람만 할 수 있다.
결국 중요한 건 도구가 아니라, 그 도구를 망가뜨려보며 배우는 과정 자체다.