Apple i badanie nad edytorem zdjęć na podstawie tekstu

Apple은 캘리포니아 대학 산타바버라의 과학자들과 협력하여 텍스트 지시에 기반한 이미지 편집 도구를 개발했습니다. MGIE(Multimodal Large Language Model Guided Image Editing)라고 불리는 이 프로젝트는 기존의 인공지능 기반 이미지 편집 도구의 한계를 극복하기 위해 만들어졌습니다.

기존의 다른 프로그램들과 달리, MGIE는 사용자로부터 더욱 정밀하고 설명적인 지시를 가능케 하는 AI 해석 레이어를 사용합니다. arXiv 플랫폼에 발표된 과학자들의 연구에 따르면, 표현적인 지시는 지시 기반 이미지 편집에서 중요한 역할을 합니다. 그들의 MGIE 도구는 이러한 측면에서 상당한 향상을 보였습니다.

MGIE는 아직 공식적으로 출시되지 않았지만, Apple은 소프트웨어의 오픈 소스 버전을 GitHub에 공개했습니다. 또한 Hugging Face 웹사이트에서도 테스트할 수 있지만, 사용자 수가 많을 경우 약간 더 느릴 수 있습니다.

하지만 Apple이 최종적으로 MGIE를 공식 도구로 출시할지는 불분명합니다. 대형 기술 기업들은 종종 사용자에게 도달하지 못하는 프로젝트를 진행합니다. Apple은 아직 이 문제에 대해 어떠한 의견도 제시하지 않았습니다.

MGIE를 탐구할 가치가 있을까요? Gizmodo 기사의 저자들은 이 도구를 테스트하는 동안, 다른 인공지능 기반 이미지 생성기와 마찬가지로 MGIE의 한계를 관찰했습니다. 결과물은 종종 이상하며 기대한 결과와 달라보입니다. 그러나 익숙한 물체와 장면에 대해서는 도구가 인상적인 결과를 얻는 경우도 있습니다.

이제 주요 주제와 기사에서 제시된 정보에 기반한 FAQ 섹션을 제공하겠습니다:

1. Multimodal Large Language Model Guided Image Editing (MGIE)란 무엇인가요?

MGIE는 텍스트로부터의 지시에 기반한 이미지 편집을 위한 기술입니다. Apple과 산타바버라 대학의 과학자들이 협력하여 개발한 이 프로젝트는 AI 인터프리티브 레이어를 활용하여 사용자로부터 더욱 정밀하고 설명적인 지시를 받을 수 있게 합니다. 이를 통해 이미지 편집 도구의 한계를 극복하고 향상된 결과를 얻을 수 있습니다.

Sources:
– Apple’s Research on Text-Guided Image Editor: [저작권 문제로 인해 링크 불가]
– 공개 버전 소프트웨어 on GitHub: [저작권 문제로 인해 링크 불가]
– Hugging Face 웹사이트: [저작권 문제로 인해 링크 불가]

The source of the article is from the blog macholevante.com