AI 리서치 센터

인공지능(AI)기본법 대응 – 위험관리 대상 선별 기준(안)

1. 조직의 모든 AI을 위험관리 대상으로 한다? 기업(AI개발사업자, AI이용사업자)에서 구축 및 도입하는 AI 제품 또는 서비스는 그 유형과 종류가 다양하다. 또한, 기존 IT시스템과 다른 특성이 있기 때문에 인공지능(AI)기본법 대응을 위한 현황조사부터 어려움을 겪기 마련이다. 결국 기본법이 기업에게 요구하는 사항을 간략하게 요약하면 아래와 같다. 그러나 기본법은 현재 “무엇을 해야하는가”는 규정하고 고영향 AI는 ‘사람의 생명, 신체의 안전 […]

인공지능(AI)기본법 대응을 위한 전략적 접근방안

1. AI 기본법의 의무사항은 무엇인가? ‘AI 산업 육성’과 ‘안전한 이용 환경 조성’을 목표로 제정되어 올해 2026년 1월 22일 시행되는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(인공지능기본법)’은 기존 IT시스템 및 서비스와 다른면들이 많아 기업 내부적으로 조직 구성 등 거버넌스 수립부터 혼란이 있을수 밖에 없다. 이러한 인공지능 정책적 방향에 대한 이해를 돕기 위해 과기부는 5종의 가이드라인

기존 IT인프라 보안과 다른 GPU 인프라의 보안을 위한 설계 가이드 -1

1. GPU 인프라란 무엇인가? GPU를 중심으로 한 Container기반 분산 컴퓨팅 플랫폼인 GPU인프라는 CPU기반 시스템으로 처리하기 어려운 대규모 병렬 연산(AI학습, Deep learning, HPC 등)을 수행하기 위해 GPU자원, 컴퓨팅 노드, 네트워크, 스토리지, 오케스트레이션, 소프트웨어 스택 등으로 구성된 통합 컴퓨팅 환경이다. 2. GPU인프라가 일반 IT인프라와 어떻게 다른가? GPU인프라는 단순 서버인프라가 아니라 Container기반 분산 연산, Data/Model처리, 멀티태넌시 환경이 결합된

자연어처리(NLP) 모델 총정리 요약표(HF-based) – Video Type Models

Name Full Name Architecture Base Model Developed Training Dataset Lib. & Framework Use Cases HF URL Githhub URL TimeSformer TimeSformer (Time-Space Transformer) Transformer Vision Transformer (ViT) 2021 Evaluated on datasets like Kinetics-400 and Kinetics-600 PyTorch Video classification and action recognition tasks https://github.com/facebookresearch/TimeSformer VideoMAE Video Masked Autoencoders Masked autoencoder Vision Transformer (ViT) 2022 Pre-trained on large-scale

자연어처리(NLP) 모델 총정리 요약표(HF-based) – Audio Type Models

Name Full Name Architecture Base Model Developed Training Dataset Lib. & Framework Use Cases HF URL Githhub URL Audio Spectrogram Transformer Audio Spectrogram Transformer Transformer ViT 2021 AudioSet PyTorch, Hugging Face Transformers Audio classification, sound event detection https://huggingface.co/docs/transformers/model_doc/audio-spectrogram-transformer https://github.com/YuanGongND/ast Bark Bark GPT-like, Transformer GPT-2 2023 Proprietary dataset PyTorch, Hugging Face Transformers Text-to-speech, voice synthesis https://huggingface.co/docs/transformers/model_doc/bark

자연어처리(NLP) 모델 총정리 요약표(HF-based) – Vision Type Models

Name Full Name Architecture Base Model Developed Training Dataset Lib. & Framework Use Cases HF URL Githhub URL BEiT Bidirectional Encoder representation from Image Transformers Vision Transformer ViT 2021 ImageNet-21k, ImageNet-1k PyTorch, Hugging Face Transformers Image classification, semantic segmentation https://huggingface.co/microsoft/beit-base-patch16-224 https://github.com/microsoft/unilm/tree/master/beit BiT Big Transfer ResNet ResNet 2019 JFT-300M, ImageNet-21k TensorFlow, Hugging Face Transformers Image classification, transfer learning

자연어처리(NLP) 모델 총정리 요약표(HF-based) – Text Type Models

Name Full Name Architecture Base Model Developed Training Dataset Lib. & Framework Use Cases HF URL Githhub URL ALBERT A Lite BERT Transformer-based sequence-to-sequence BERT 2019 BookCorpus, English Wikipedia TensorFlow, PyTorch Natural Language Understanding https://huggingface.co/albert-base-v2 https://github.com/google-research/albert Bamba Bamba Transformer GPT-2 2023 Bambara language corpus PyTorch Bambara language generation https://huggingface.co/masakhane/bamba https://github.com/masakhane-io/bamba BART Bidirectional and Auto-Regressive Transformers

Prompt Injection 테스트를 위한 Prompt유형과 속성 이해

GenAI(LLM) 취약점 중의 하나인 Prompt Injection Attack은 OWASP Top10 for LLM Application의 첫 번째로 등장할 만큼 다양한 공격기법이 존재하는 반면에, LLM의 다양한 서비스와 정확한 작업지시를 위해 여러 가지 유형의 Prompt를 개발하여 사용할수 밖에 없는 구조를 가지고 있다. 일반적으로 System Prompt와 User Prompt정도만 있는 것으로 알겠지만, 그 외에도 몇가지 종류가 있으며, 종류를 세부화 하면 더 많으며

대표적인 GenAI인 OpenAI ChatGPT의 취약점(현재 Zero-day)

최근 국내 금융회사들이 GenAI(생성형AI, LLM)구축이 많이 이뤄지고 있다. 그러나 LLM의 보안 취약점에 대해서는 개인정보 유노출 정도만 언급되고 있을 뿐, OWASP Top 10 for LLM Application에서 정의하고 있는 다양한 정보보안 고려사항에 대해서는 고려되고 있지 않고 있다. 1. 취약점 테스트 이 취약점은 OWASP Top10 중에서 LLM 02. Insecure Output Handling과 LLM 06. Sensitive Information Disclosure에 해당하는 취약점으로써