본문 바로가기
AI

2025년 4월 18일 AI 뉴스

by 루이스파파 2025. 4. 18.
반응형

『메타, 인간 수준의 AI 구현을 위한 5가지 주요 기술 공개』
출처 웹사이트: artificialintelligence-news.com
링크: https://www.artificialintelligence-news.com/news/meta-fair-advances-human-like-ai-five-major-releases/
요약: 메타의 기초 AI 연구팀(FAIR)이 고급 기계 지능(AMI) 개발을 위한 5가지 주요 프로젝트를 발표했습니다. 이 기술들은 AI가 인간처럼 감각 정보를 처리하고 해석하는 '지각 능력'을 향상시키는 데 중점을 두고 있습니다. 주요 기술로는 이미지와 비디오 처리에 특화된 '지각 인코더', 복잡한 시각 인식 작업을 위한 '지각 언어 모델(PLM)', 로봇이 3D 환경에서 물체를 정확히 인식하는 '메타 로케이트 3D', 효율적이고 강력한 언어 모델링을 위한 '다이나믹 바이트 레이턴트 트랜스포머', 그리고 AI가 인간이나 다른 AI와 효과적으로 협업할 수 있게 하는 '협업 추론기'가 있습니다.

 

『화웨이, NVIDIA의 지배력에 도전하는 AI 하드웨어 혁신』
출처 웹사이트: artificialintelligence-news.com
링크: https://www.artificialintelligence-news.com/news/huawei-ai-hardware-breakthrough-challenges-nvidia-dominance/
요약: 중국 기업 화웨이가 'CloudMatrix 384 Supernode'라는 강력한 새 컴퓨팅 시스템을 공개했습니다. 이 시스템은 NVIDIA의 NVL72 시스템보다 더 높은 300 페타플롭스의 연산 능력을 제공하며, 미국의 제재에도 불구하고 중국 국내 기술만으로 개발되었습니다. 이 기술은 특히 대규모 AI 모델의 학습과 추론 과정에서 발생하는 컴퓨팅 병목 현상을 해결하기 위해 설계되었으며, NVIDIA의 NVLink와 유사한 고속 상호 연결 기술을 사용합니다. 이는 중국이 기술적 자급자족을 향해 나아가는 중요한 진전을 보여주며, 글로벌 AI 칩 경쟁 구도에 변화를 가져올 수 있습니다.

 

『메타, EU 사용자 데이터로 AI 모델 학습 계획 발표』
출처 웹사이트: artificialintelligence-news.com
링크: https://www.artificialintelligence-news.com/news/meta-will-train-ai-models-using-eu-user-data/
요약: 메타가 EU(유럽연합) 내 성인 사용자들이 공개적으로 공유한 콘텐츠를 AI 모델 학습에 활용할 계획을 확정했습니다. 이는 최근 유럽에서 메타 AI 기능을 출시한 후, 지역 사용자들에게 더 적합한 AI 시스템을 개발하기 위한 조치입니다. 메타는 페이스북, 인스타그램, 왓츠앱, 메신저 등 플랫폼 사용자들에게 데이터 사용에 관한 알림을 제공하고, 이의제기 양식을 통해 거부할 수 있는 옵션을 제공할 예정입니다. 단, 친구나 가족과의 개인 메시지와 18세 미만 사용자의 데이터는 학습에 사용하지 않을 것임을 명시했습니다. 이 접근 방식은 데이터 프라이버시, 정보에 기반한 동의, 알고리즘 편향 등에 관한 논쟁을 불러일으킬 가능성이 있습니다.

 

『구글 딥마인드 CEO, 제미니와 비오 AI 모델 통합 계획 밝혀』
출처 웹사이트: techcrunch.com
링크: https://techcrunch.com/2025/04/10/deepmind-ceo-demis-hassabis-says-google-will-eventually-combine-its-gemini-and-veo-ai-models/
요약: 구글 딥마인드의 CEO 데미스 하사비스가 최근 팟캐스트에서 구글이 언어 모델인 제미니와 비디오 생성 모델인 비오를 결합할 계획이라고 밝혔습니다. 이는 AI가 물리적 세계를 더 잘 이해하도록 하기 위한 전략의 일환입니다. 하사비스는 "우리는 처음부터 제미니를 멀티모달로 구축했다"며, "실제 세계에서 도움을 주는 보편적 디지털 비서라는 비전을 가지고 있다"고 설명했습니다. 그는 비오 모델이 유튜브 비디오를 대량으로 시청함으로써 세계의 물리학을 이해하게 된다고 언급했습니다. 이는 텍스트, 이미지, 오디오, 비디오 등 다양한 형태의 미디어를 이해하고 합성할 수 있는 '옴니' 모델로 향하는 AI 산업의 흐름을 보여줍니다.

 

『미라 무라티의 AI 스타트업, 20억 달러 시드 라운드 목표』
출처 웹사이트: techcrunch.com
링크: https://techcrunch.com/2025/04/10/mira-muratis-ai-startup-is-reportedly-aiming-for-a-massive-2b-seed-round/
요약: 전 OpenAI CTO 미라 무라티가 설립한 AI 스타트업 '씽킹 머신스 랩(Thinking Machines Lab)'이 역사상 가장 큰 규모의 시드 펀딩 라운드 중 하나를 추진 중입니다. 비즈니스 인사이더에 따르면, 이 회사는 시드 펀딩 목표를 20억 달러로 두 배 늘렸으며, 이 라운드가 계획대로 마무리되면 기업 가치는 최소 100억 달러에 이를 것으로 예상됩니다. 아직 제품이나 수익이 없음에도 불구하고 투자자들의 관심을 끄는 이유는 수십 명의 저명한 AI 연구자들이 합류했기 때문입니다. 최근에는 OpenAI의 전 최고 연구 책임자 밥 맥그루와 OpenAI의 혁신적 기술 개발에 기여한 알렉 래드포드가 고문으로 참여했습니다. 씽킹 머신스 랩은 "더 널리 이해되고, 맞춤화 가능하며, 일반적으로 더 유능한" AI 시스템을 만들겠다는 목표를 밝혔습니다.

 

『마이크로소프트 연구: AI 모델, 소프트웨어 디버깅에 여전히 어려움 겪어』
출처 웹사이트: techcrunch.com
링크: https://techcrunch.com/2025/04/10/ai-models-still-struggle-to-debug-software-microsoft-study-shows/
요약: 마이크로소프트 연구소의 새로운 연구에 따르면, 앤트로픽의 Claude 3.7 Sonnet과 OpenAI의 o3-mini를 포함한 최신 AI 모델들이 소프트웨어 개발 벤치마크인 SWE-bench Lite의 많은 디버깅 문제를 해결하지 못하는 것으로 나타났습니다. 연구진은 9개의 다양한 모델을 테스트했으며, 디버깅 도구에 접근할 수 있는 "단일 프롬프트 기반 에이전트"를 사용해 300개의 소프트웨어 디버깅 작업을 수행하도록 했습니다. 가장 성능이 좋은 Claude 3.7 Sonnet도 평균 성공률이 48.4%에 그쳤으며, OpenAI의 o1은 30.2%, o3-mini는 22.1%를 기록했습니다. 연구진은 이러한 저조한 성능의 원인으로 데이터 부족을 지적하며, 특히 "순차적 의사결정 과정"을 나타내는 인간의 디버깅 추적 데이터가 현재 모델의 학습 데이터에 충분히 포함되어 있지 않다고 설명했습니다. 이 연구는 AI가 코딩 분야에서 인간 전문가를 대체하기에는 아직 부족하다는 것을 보여줍니다.

 

『DeepSeek의 분산 파일 시스템 소개』
출처 웹사이트: maknee.github.io
링크: https://maknee.github.io/blog/2025/3FS-Performance-Journal-1/
요약: DeepSeek이 공개한 분산 파일 시스템 '3FS(Fire-Flyer File System)'에 대한 심층 분석 글입니다. 분산 파일 시스템은 여러 기계에 분산된 파일을 마치 로컬 파일처럼 접근할 수 있게 해주는 기술로, 대용량 데이터 처리와 높은 처리량을 제공합니다. 3FS는 메타데이터 관리를 담당하는 'Meta', 클러스터 구성을 제어하는 'Mgmtd', 실제 파일 데이터를 저장하는 'Storage', 그리고 다른 노드들과 통신하는 'Client'라는 네 가지 주요 노드 유형으로 구성됩니다. 이 시스템은 CRAQ(Chain Replication with Apportioned Queries) 프로토콜을 사용하여 강력한 일관성과 내결함성을 제공합니다. 글쓴이는 3FS의 성능을 분석하고 다른 분산 파일 시스템과 비교하는 시리즈의 첫 번째 글로, 시스템의 아키텍처와 작동 방식을 자세히 설명합니다.

반응형

'AI' 카테고리의 다른 글

RAG 핵심 기술! 10가지 방법  (0) 2025.04.21