본문 바로가기

인공지능5

왜 챗봇은 나쁜 행동을 할까 연구자들은 인공지능의 안전성 우려를 조사했다 긴 혀와 날카로운 송곳니, 촉수와 많은 눈을 가진 짐승을 상상해 보자. 이 괴물의 꼭대기에는 웃고 있는 얼굴이 붙어 있다. 이것은 마치 “날 믿어요.”라고 말하는 것 같다. 인공지능 챗봇을 표현할 때 종종 사용되는 이미지다. 이 스마일 아이콘은 사용자와 시스템 사이에서 생성될 수 있는 유해한 콘텐츠 사이에 서 있다. 오픈에이아이(OpenAI)의 챗지피티(ChatGPT), 구글의 바드(Bard), 메타 에이아이(Meta AI)와 같은 챗봇은 놀라울 정도로 인간과 유사한 언어로 질문에 답하는 능력으로 화제를 모았다. 이런 챗봇은 텍스트를 뱉어내도록 설계된 생성형 인공 지능의 일종인 대규모 언어 모델(Large language models, LLM)을 기반으로 한다.. 2024. 3. 5.
이론적인 인공지능의 해악은 현재의 위협으로부터 주의를 돌리게 한다 인류를 종식시킬 인공지능의 잠재력에 대한 두려움은 인공지능이 이미 초래한 실제 피해를 가리고 있다 잘못된 체포, 확대되는 감시망, 명예훼손과 딥페이크 포르노그래피는 현재 사용하고 있는 인공지능 도구에 존재하는 위험들이다. 이런 문제들은 인류를 멸망시킬 수 있다는 상상 속의 잠재력이 아니라 현재의 인공지능이 갖는 실제하는 위협이다. 여러 인공지능 회사들을 둘러싼 세상의 종말에 대한 과장된 경고가 있지만, 이미 인공지능 기술은 주거, 사법 및 의료 분야에서 일상적인 차별을 비롯해 비영어권 언어에서의 혐오 발언과 잘못된 정보를 확산시키는 등의 무수한 피해를 낳고 있다. 근무 시간을 정확하게 기록하지 않거나, 수행한 작업에 대한 충분한 임금을 지급하지 않는 등 노동자들에게 불리하게 작용하는 알고리즘 관리 프로그.. 2024. 2. 16.
인공지능의 미스터리 연구자들은 인공지능 모델이 누구도 말하지 않은 것을 어떻게 알고 있는지 이해하기 위해 고군분투하고 있다 챗지피티(ChatGPT)와 그 인공지능 사촌들이 세상을 어떻게 변화시킬지 아직 아무도 모른다. 그 이유 중 하나는 그 내부에서 어떤 일이 벌어지는지 누구도 모르기 때문이다. 이런 시스템 중 일부는 훈련받은 기능을 훨씬 뛰어넘는 능력을 발휘하며, 그 이유에 대해 발명한 이들조차 당황하고 있다. 점점 더 많은 테스트에서 이런 인공지능 시스템이 기술은 다르지만, 우리 뇌와 마찬가지로 실제 세계의 내부 모델을 개발한다는 사실이 밝혀지고 있다. 이러한 이해의 공백을 메우기 위해 노력하고 있는 연구자 중 한 명인 브라운 대학교의 엘베 파블릭(Elbe Pavlick)은 “작동 방식을 이해하지 못하면서 인공지능을 더.. 2023. 12. 8.
나이트쉐이드(Nightshade):생성형 AI에 맞서는 아티스트를 위한 새로운 무기 나이트쉐이드라는 툴은 이미지 생성 AI 모델에 심각한 손상을 입힐 수 있는 방식으로 학습 데이터를 엉망으로 만든다 이 새로운 툴을 사용하면 아티스트가 온라인에 자신의 그림을 올리기 전에 픽셀에 보이지 않는 변경 사항을 추가할 수 있다. 이 이미지를 긁어 가 AI 학습에 사용하면 그 모델은 혼란스럽고 예측할 수 없는 방식으로 손상될 수 있다. 나이트쉐이드라는 이 도구는 창작자의 허락 없이 그의 작품으로 모델을 훈련시키는 AI 회사에 대항하기 위한 것이다. 훈련 데이터를 ‘중독’시키면 개를 고양이로, 자동차를 소를 만드는 등 일부 결과물을 쓸모없게 만들어 이미지 생성 AI 모델의 향후 작업에 손상을 줄 수 있다. 현재 OpenAI, Meta, Google, Stability AI와 같은 AI 회사들은 저작권.. 2023. 10. 26.