본문 바로가기
728x90
반응형
SMALL

Linguistic Intelligence40

소리 및 파형 소리 (Sound)  소리는 물체의 진동 (vibration)에 의해 발생한다. 진동은 공기 분자를 진동시킨다 (oscillate). 기압의 변화가 파동을 일으킨다. 기계적 파동 (Mechanical wave)  공간을 이동하는 진동이다. 한 지점에서 다른 지점으로 이동하는 에너지이며 매체가 변형된다. 파형 (Waveform)  파형은 다인자 (multifactorial) 정보를 전달한다. 주파수 (Frequency)강도 (Intensity)음색 (Timbre) 주기적 (periodic) 및 비주기적 (aperiodic) 소리의 파형은 다음과 같다.  주파수 및 진폭 (Frequency and amplitude) 주파수가 높을수록 더 높은 소리가 되며, 진폭이 클수록 크게 들린다. Pitch  음높이 (.. 2024. 3. 6.
[Audio Processing] librosa specshow librosa specshow import librosa as liimport librosa.displayimport numpy as npimport matplotlib.pyplot as pltimport scipy.signal as sig# load sample audiofile = li.ex('trumpet')aud, sr = li.load(file, sr=None)n_ftt = 512rsr = 11025# apply low pass filter before downsampling. Attenuate at resample rate divided by 2.cutoff = rsr / 2sos = sig.butter(10, cutoff, fs=sr, btype='lowpass', analog=False, .. 2023. 7. 5.
[Audio Processing] 시스템 구조 (Systems structures) 전송 및 저장 (Transmission and storage)  음성 전송 시스템 (speech transmission systems)의 목적은 가능한 한 적은 비트 (bits)로 신호를 압축 (compress)하는 동시에 출력 음질 (sound quality)을 가능한 한 좋게 유지하는 것이다. 이를 위해서는 도입하는 degradations가 지각적 영향 (perceptual influence)이 가능한 한 작도록 선택되어야 한다. 다시 말해, 청취자 (listener)가 신호가 저하된 것을 알아차리지 못하게 하거나 가능한 한 적게 알아차리게 하기를 원치 않는다. 그림에서 송신자 측 (sender side)의 인코더에서 신호가 어떻게 양자화되는지 결정하는 지각적 중요성 모델을 가지고 있다. 그런 다음 .. 2023. 6. 15.
[LLM] Instruction Tuning In-context learning (Prompt learning) In-context learning 또는 prompt learning은 말 그대로 prompt 내의 맥락적인 의미 (in-context)를 모델이 알아차리고 (learning), 이런 형식에 맞도록 출력을 생성하는 것을 의미한다. 쉽게 말하면, 모델을 업데이트 하지 않고 질문을 잘 만들어서 우리가 원하는 출력을 만드는 접근법이다. Zero-shot learning예시 없이 task를 수행One-shot learning하나의 예시를 주고 task를 수행하는 경우Few-shot learning몇 개의 예시를 주고 task를 수행  Instruction Tuning Instruction Tuning은 In-Context learning과 파인.. 2023. 6. 15.
새로운 빙 (The New Bing) 새로운 빙 (The New Bing) 새로운 빙은 챗GPT의 개발사인 오픈AI의 새로운 언어 모델인 '프로메테우스'를 탑재하고 있다. Microsoft Edge 웹 브라우저를 설치하고 사용가능하다. https://www.bing.com/new 새로운 Bing 소개 실제 질문을 하고, 완전한 답변을 얻고, 채팅을 통해 만들어 보세요. www.bing.com 2023. 5. 15.
Bard Bard Bard는 대형 언어 모델의 LaMDA 제품군을 기반으로 Google에서 개발한 대화형 생성 인공지능 챗봇이다. OpenAI의 ChatGPT 대두에 대한 직접적인 대응으로 개발되었으며, 미지근한 반응에 2023년 3월에 제한된 용량으로 출시된 후 다른 국가로 확장되었다. https://en.wikipedia.org/wiki/Bard_(chatbot) Bard (chatbot) - Wikipedia From Wikipedia, the free encyclopedia Chatbot developed by Google Bard is a conversational generative artificial intelligence chatbot developed by Google, based on the L.. 2023. 5. 15.
허깅페이스 (Hugging Face) 허깅페이스 (Hugging Face)  기계 학습을 사용하여 애플리케이션을 구축하기 위한 도구를 개발하는 미국 회사이다. 자연어 처리 애플리케이션용으로 구축된 변환기 라이브러리와 사용자가 기계 학습 모델 및 데이터 세트를 공유할 수 있는 플랫폼으로 가장 유명하다. https://huggingface.co/ Hugging Face – The AI community building the future.The AI community building the future. Build, train and deploy state of the art models powered by the reference open source in machine learning.huggingface.co 2023. 5. 9.
프롬프트 엔지니어링 (Prompt Engineering) 프롬프트 엔지니어링 (Prompt Engineering) 프롬프트 (prompt)는 ChatGPT에게 질문이나 지시를 주는 문장이나 단어이다. ChatGPT가 생성해 내는 응답의 품질은 주어진 프롬프트에 따라 크게 달라진다. 프롬프트 엔지니어링은 언어 모델이 특정 목표나 목적에 맞는 글을 생성하도록 안내하는 프롬프트 또는 프롬프트 세트를 설계하는 프로세스를 말한다. 이는 ChatGPT와 같은 인공지능 모델을 더 효과적으로 활용하기 위해 굉장히 중요하다. 모델은 입력된 프롬프트를 기반으로 텍스트를 생성하기 때문에, 명확하고 구체적인 프롬프트를 제공하는 것이 원하는 결과물을 얻는 핵심이다. 다시 말해, 프롬프트 엔지니어링은 AI, 그 중에서도 NLP 분야의 개념으로, AI가 생성하는 결과물의 품질을 높일 수.. 2023. 5. 4.
ChatGPT ChatGPT 챗GPT는 OpenAI에서 개발한 대규모 언어 모델로, 대화형 AI 챗봇 분야에서 사용된다. 이 모델은 GPT-3.5 기반의 대형 언어 모델(large language model, LLM) 챗봇을 뜻한다. 챗GPT는 대화 형태로 상호작용을 하며 놀라울 정도로 인간과 대화하는 것과 같은 반응을 제공하는 능력을 가지고 있다. 지도학습과 강화학습을 모두 사용해 파인 튜닝되었다. ChatGPT는 Generative Pre-trained Transformer (GPT)와 Chat의 합성어이다. ChatGPT는 2022년 11월 프로토타입으로 시작되었으며, 다양한 지식 분야에서 상세한 응답과 정교한 답변으로 인해 집중 받았다. 다만, 정보의 정확도는 중요한 결점으로 지적되고 있다. https://ko.. 2023. 5. 4.
OpenAI OpenAI OpenAI는 샘 알트만(Sam Altman)이 2015년 12월 11일 설립한 인류에게 이익을 주는 것을 목표로 하는 인공지능 회사이다. 인공지능의 정보를 오픈소스화하여 더 안전한 인공지능의 발전을 추구하며 GPT-3 등 거대 언어 모델 기반 서비스를 제공한다. https://namu.wiki/w/OpenAI OpenAI - 나무위키 Generative Pre-trained Transformer 1 GPT의 첫번째 버전. 2018년 6월 11일에 출시 되었다. 인간과 간단한 대화가 가능하다. namu.wiki 2023. 5. 4.
728x90
반응형
LIST