최근 몇 년 동안 우리는 인공 지능 (AI), 인간의 마음을 읽는 것과 관련하여.
따라서 연구원들은 AI 기반 비디오 생성 기술을 사용하여 우리 마음에서 일어나는 일에 대한 "실제" 보기를 제공했습니다.
더보기
다음은 고독을 가장 사랑하는 4가지 조디악 표지판입니다.
구글, 언론인 돕는 AI 도구 개발…
공기 신호의 해석은 주로 언젠가 혼수 상태에 있거나 다양한 형태의 마비 상태에 있는 사람들에게 새로운 의사 소통 방법을 제공할 수 있을 것이라는 희망에 의해 추진됩니다.
또한 기술은 건강한 사람을 위한 응용 프로그램과 함께 인간과 기계 간의 보다 직관적인 인터페이스를 만들 수도 있습니다.
지금까지 대부분의 연구는 AI 시스템을 통해 환자가 생각하는 단어를 식별하여 환자의 내부 독백을 재현하는 데 중점을 두었습니다.
침습성 공기 이식을 사용하여 가장 유망한 결과를 얻었지만 이 접근법은 대부분의 사람들이 사용하는 방법이 아닐 것입니다.
"마음 비디오"를 만드는 데 사용되는 AI
싱가포르국립대학교와 홍콩중문대학교 연구원 비침습적 임베디드 스캔과 이미지 생성 기술을 결합하여 획기적인 발전을 이루었습니다. AI 이미지.
그들은 방사형 데이터가 수집되었을 때 참가자들이 보고 있던 클립과 매우 유사한 비디오의 짧은 스니펫을 만들 수 있습니다.
이 결과를 달성하기 위해 연구자들은 먼저 fMRI 항공 스캐너를 사용하여 수집한 대규모 데이터 세트를 사용하여 모델을 훈련했습니다.
그런 다음 해당 모델을 이미징 기술과 결합했습니다. AI 안정적인 확산, 오픈 소스, 해당 이미지를 생성합니다.
하나 기사 최근 arXiv 프리프레스 서버에 게시된 이 책은 저자의 이전 연구와 유사한 접근 방식을 취합니다.
그러나 이번에는 방사형 데이터 스트림을 해석하고 정지 이미지 대신 비디오로 변환하도록 시스템을 조정했습니다.
처음에 연구원은 광범위한 데이터 세트를 사용하여 모델 훈련을 따랐습니다. 이러한 스캔의 일반적인 특성에 대한 지식을 얻을 수 있도록 fMRI 전기 같은.
그런 다음 모델이 fMRI 스캔을 개별적으로 처리하는 대신 일련의 fMRI 스캔을 처리할 수 있도록 훈련을 확장했습니다.
그 후, 모델은 새로운 교육을 위해 유지되었으며 이번에는 다음 조합을 사용했습니다. fMRI 스캔, 이 뇌 활동을 유발한 비디오 클립 및 텍스트 시퀀스 동.
별도의 접근 방식에서 연구원은 사전 훈련된 모델을 조정했습니다. 안정적인 확산 스틸 이미지 대신 비디오를 생성합니다.
그런 다음 이 모델은 첫 번째 모델 훈련에 사용된 것과 동일한 비디오 및 텍스트 시퀀스를 사용하여 새로운 훈련을 받았습니다.
그 후, fMRI 스캔과 각각의 관련 비디오를 사용하여 두 모델을 결합하고 장착했습니다.
검색 결과
모델을 결합하고 조정한 후 결과 시스템은 이전에는 사용할 수 없었던 새로운 fMRI 스캔을 수행할 수 있었습니다. 이전에 인간 참가자가 가지고 있던 클립과 유사성을 드러낸 비디오를 찾아 생성합니다. 보았다.
여전히 개선의 여지가 있지만 AI 출력은 일반적으로 원본 비디오에 매우 가깝습니다. 농작물이나 말 무리의 장면을 정확하게 재현하고 색상 팔레트로 시각화 유지 사용된.
이 연구의 배후에 있는 연구원들은 이 연구 영역이 근본적인 신경 과학과 미래의 뇌-기계 인터페이스 모두에 잠재적인 응용 프로그램을 가지고 있다고 말합니다.
그러나 그들은 또한 정부 규제의 필요성과 과학계의 노력을 인식하고 있습니다. 생물학적 데이터의 프라이버시를 보호하고 작업에서 승인된 대로 이 기술의 잠재적인 악의적 사용을 방지합니다.
이 연구 라인은 인간의 마음과 뇌와 뇌 사이에 보다 정교한 인터페이스를 구축할 수 있는 기술 개발 기계.
개인 데이터 보호 및 남용 방지와 같이 해결해야 할 중요한 고려 사항이 있지만 잠재적인 과학적 및 기술적 이점은 유망합니다.
영화와 시리즈, 영화와 관련된 모든 것을 사랑하는 사람. 네트워크에 대한 적극적인 호기심, 항상 웹에 대한 정보에 연결되어 있습니다.