<?xml version="1.0" encoding="utf-8"?><feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en"><generator uri="https://jekyllrb.com/" version="3.10.0">Jekyll</generator><link href="https://corbinkim.github.io/feed.xml" rel="self" type="application/atom+xml" /><link href="https://corbinkim.github.io/" rel="alternate" type="text/html" hreflang="en" /><updated>2026-03-30T18:33:59+00:00</updated><id>https://corbinkim.github.io/feed.xml</id><title type="html">Corbin’s Tech Journey</title><subtitle>Personal blog of Corbin Kim, a Ph.D. Candidate at NextG Lab, NC State University. Research on LLM-driven autonomous RAN management, Open RAN, and next-generation wireless networks.
</subtitle><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><entry><title type="html">Day 1: Project Inception and Architecture Planning</title><link href="https://corbinkim.github.io/blog/2025/08/18/netllm-project/" rel="alternate" type="text/html" title="Day 1: Project Inception and Architecture Planning" /><published>2025-08-18T00:00:00+00:00</published><updated>2025-08-18T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2025/08/18/netllm-project</id><content type="html" xml:base="https://corbinkim.github.io/blog/2025/08/18/netllm-project/"><![CDATA[<p>Today marks the beginning of the NetLLM project - an ambitious endeavor to revolutionize telecommunications network management through Large Language Models. This project aims to bridge the gap between complex network operations and intuitive natural language interactions.</p>

<h2 id="what-i-did-today">What I Did Today</h2>

<h3 id="1-project-definition-and-scope">1. Project Definition and Scope</h3>
<ul>
  <li><strong>Core Objectives</strong>: Defined the primary goals of enabling natural language network configuration, intelligent fault diagnosis, automated documentation, and predictive maintenance</li>
  <li><strong>Target Use Cases</strong>: Identified key scenarios where LLMs can transform network operations:
    <ul>
      <li>Configuration management through conversational interfaces</li>
      <li>Automated troubleshooting and root cause analysis</li>
      <li>Real-time network optimization recommendations</li>
      <li>Intelligent documentation generation from network telemetry</li>
    </ul>
  </li>
</ul>

<h3 id="2-literature-review-and-research">2. Literature Review and Research</h3>
<ul>
  <li><strong>Existing Solutions Analysis</strong>: Researched current state-of-the-art in AI-driven network management</li>
  <li><strong>LLM Applications in Telecommunications</strong>: Studied papers on applying transformer models to network optimization and fault prediction</li>
  <li><strong>Industry Standards Review</strong>: Analyzed O-RAN specifications for AI/ML integration points</li>
  <li><strong>Technology Stack Research</strong>: Evaluated different LLM frameworks (OpenAI GPT, Google PaLM, Meta LLaMA) for telecommunications domain adaptation</li>
</ul>

<h3 id="3-system-architecture-design">3. System Architecture Design</h3>
<ul>
  <li><strong>High-Level Architecture</strong>: Designed a microservices-based system with the following components:
    <ul>
      <li><strong>LLM Engine</strong>: Fine-tuned language model for telecommunications domain</li>
      <li><strong>Network Interface Layer</strong>: APIs for connecting to various network management systems</li>
      <li><strong>Knowledge Base</strong>: Repository of network configurations, best practices, and historical data</li>
      <li><strong>Validation Engine</strong>: Safety checks and verification for critical network changes</li>
      <li><strong>Telemetry Processor</strong>: Real-time analysis of network performance data</li>
    </ul>
  </li>
</ul>

<h3 id="4-domain-knowledge-collection-strategy">4. Domain Knowledge Collection Strategy</h3>
<ul>
  <li><strong>Data Sources Identification</strong>: Planned collection from:
    <ul>
      <li>Network configuration templates and documentation</li>
      <li>Historical incident reports and resolution procedures</li>
      <li>Performance optimization case studies</li>
      <li>Telecommunications standards and specifications</li>
    </ul>
  </li>
  <li><strong>Synthetic Data Generation</strong>: Designed approach for creating training scenarios using network simulators</li>
</ul>

<h2 id="key-technical-insights">Key Technical Insights</h2>

<h3 id="llm-fine-tuning-approach">LLM Fine-tuning Approach</h3>
<div class="language-python highlighter-rouge"><div class="highlight"><pre class="highlight"><code><span class="c1"># Preliminary model architecture considerations
</span><span class="k">class</span> <span class="nc">NetLLMConfig</span><span class="p">:</span>
    <span class="n">base_model</span> <span class="o">=</span> <span class="s">"llama-2-70b"</span>  <span class="c1"># Starting point for fine-tuning
</span>    <span class="n">domain_layers</span> <span class="o">=</span> <span class="mi">8</span>  <span class="c1"># Additional layers for telecom knowledge
</span>    <span class="n">context_window</span> <span class="o">=</span> <span class="mi">32768</span>  <span class="c1"># Support for large configuration files
</span>    <span class="n">safety_filters</span> <span class="o">=</span> <span class="bp">True</span>  <span class="c1"># Critical for production network changes
</span></code></pre></div></div>

<h3 id="network-integration-strategy">Network Integration Strategy</h3>
<ul>
  <li><strong>API Gateway Pattern</strong>: Centralized interface for multiple network management systems</li>
  <li><strong>Event-Driven Architecture</strong>: Real-time processing of network events and alarms</li>
  <li><strong>Multi-vendor Support</strong>: Abstraction layer for different equipment manufacturers</li>
</ul>

<h3 id="safety-and-validation-framework">Safety and Validation Framework</h3>
<ul>
  <li><strong>Staged Deployment</strong>: Sandbox → Lab → Production progression</li>
  <li><strong>Human-in-the-Loop</strong>: Critical changes require human approval</li>
  <li><strong>Rollback Mechanisms</strong>: Automatic reversion for failed configurations</li>
  <li><strong>Audit Trail</strong>: Complete logging of all AI-generated recommendations</li>
</ul>

<h2 id="tomorrows-goals">Tomorrow’s Goals</h2>

<h3 id="phase-1-foundation-building">Phase 1: Foundation Building</h3>
<ul class="task-list">
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Set up development environment with MLflow for experiment tracking</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Create initial dataset collection pipeline</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Design data preprocessing workflows for network configurations</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Establish baseline performance metrics</li>
</ul>

<h3 id="phase-2-model-development">Phase 2: Model Development</h3>
<ul class="task-list">
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Implement initial fine-tuning pipeline using LoRA (Low-Rank Adaptation)</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Create synthetic training data using network simulation tools</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Design evaluation framework for telecommunications-specific tasks</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Set up distributed training infrastructure</li>
</ul>

<h3 id="phase-3-integration-planning">Phase 3: Integration Planning</h3>
<ul class="task-list">
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Design REST API specifications for network management integration</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Plan security architecture for production deployment</li>
  <li class="task-list-item"><input type="checkbox" class="task-list-item-checkbox" disabled="disabled" />Create testing scenarios for different network topologies</li>
</ul>

<p><strong>Primary Focus</strong>: Building the foundational infrastructure and beginning the model fine-tuning process with a focus on network configuration tasks.</p>

<h2 id="technical-challenges-identified">Technical Challenges Identified</h2>

<h3 id="1-domain-adaptation-complexity">1. Domain Adaptation Complexity</h3>
<p><strong>Challenge</strong>: Telecommunications has highly specialized terminology and concepts<br />
<strong>Approach</strong>: Curated dataset creation with expert validation and iterative fine-tuning</p>

<h3 id="2-safety-and-reliability-requirements">2. Safety and Reliability Requirements</h3>
<p><strong>Challenge</strong>: Network changes can have significant business impact<br />
<strong>Approach</strong>: Multi-layered validation with human oversight and comprehensive testing</p>

<h3 id="3-multi-vendor-environment">3. Multi-vendor Environment</h3>
<p><strong>Challenge</strong>: Different network equipment uses varying configuration formats<br />
<strong>Approach</strong>: Abstraction layer with vendor-specific adapters</p>

<h3 id="4-real-time-performance-requirements">4. Real-time Performance Requirements</h3>
<p><strong>Challenge</strong>: Network operations require low-latency responses<br />
<strong>Approach</strong>: Model optimization and efficient inference infrastructure</p>

<h2 id="architecture-decisions-made">Architecture Decisions Made</h2>

<ol>
  <li><strong>Adopted transformer-based architecture</strong> with telecommunications-specific fine-tuning</li>
  <li><strong>Implemented microservices design</strong> for scalability and maintainability</li>
  <li><strong>Chose hybrid cloud deployment</strong> for security and performance</li>
  <li><strong>Planned staged rollout approach</strong> to minimize risk</li>
</ol>

<h2 id="research-findings">Research Findings</h2>

<ul>
  <li><strong>LLM Effectiveness</strong>: Recent studies show 40-60% improvement in network troubleshooting efficiency with AI assistance</li>
  <li><strong>Configuration Accuracy</strong>: Fine-tuned models achieve 95%+ accuracy on domain-specific tasks</li>
  <li><strong>Industry Adoption</strong>: Major telecom operators are actively investing in AI-driven network operations</li>
  <li><strong>Open Source Opportunities</strong>: Growing ecosystem of tools for telecommunications AI applications</li>
</ul>

<h2 id="next-steps-planning">Next Steps Planning</h2>

<h3 id="week-1-2-data-pipeline-and-model-setup">Week 1-2: Data Pipeline and Model Setup</h3>
<ul>
  <li>Establish data collection and preprocessing infrastructure</li>
  <li>Set up training environment with GPU clusters</li>
  <li>Create initial fine-tuning experiments</li>
</ul>

<h3 id="week-3-4-model-development">Week 3-4: Model Development</h3>
<ul>
  <li>Implement domain-specific fine-tuning</li>
  <li>Develop evaluation metrics and benchmarks</li>
  <li>Create safety validation frameworks</li>
</ul>

<h3 id="month-2-integration-and-testing">Month 2: Integration and Testing</h3>
<ul>
  <li>Build network integration APIs</li>
  <li>Conduct extensive testing in lab environment</li>
  <li>Develop user interface for network engineers</li>
</ul>

<hr />

<p><em>This is part of my daily development log for the NetLLM project. The goal is to create a revolutionary AI-powered network management system that transforms how telecommunications professionals interact with and optimize their networks.</em></p>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="netllm" /><category term="llm" /><category term="networking" /><category term="telecommunications" /><summary type="html"><![CDATA[Day 1 of the NetLLM project - defining objectives, researching LLM applications in telecommunications, and designing the initial system architecture for AI-powered network management.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/projects/netllm_project.jpg" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/projects/netllm_project.jpg" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">Intent-Aware Radio Resource Scheduling in a RAN Slicing Scenario Using Reinforcement Learning</title><link href="https://corbinkim.github.io/blog/2025/01/31/intent-aware-radio-resource-scheduling-ran-slicing-reinforcement-learning/" rel="alternate" type="text/html" title="Intent-Aware Radio Resource Scheduling in a RAN Slicing Scenario Using Reinforcement Learning" /><published>2025-01-31T00:00:00+00:00</published><updated>2025-01-31T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2025/01/31/intent-aware-radio-resource-scheduling-ran-slicing-reinforcement-learning</id><content type="html" xml:base="https://corbinkim.github.io/blog/2025/01/31/intent-aware-radio-resource-scheduling-ran-slicing-reinforcement-learning/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#abstract" id="markdown-toc-abstract">Abstract</a></li>
  <li><a href="#논문의-구조" id="markdown-toc-논문의-구조">논문의 구조</a></li>
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a>    <ul>
      <li><a href="#11-what-is-the-research-topic-and-why-was-it-chosen" id="markdown-toc-11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</a></li>
      <li><a href="#12-what-are-the-objectives-of-the-study" id="markdown-toc-12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</a></li>
      <li><a href="#13-what-methods-were-used-to-conduct-the-research" id="markdown-toc-13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</a></li>
      <li><a href="#14-what-results-were-obtained" id="markdown-toc-14-what-results-were-obtained">1.4 What results were obtained?</a></li>
      <li><a href="#15-what-is-the-significance-of-the-results" id="markdown-toc-15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</a></li>
    </ul>
  </li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a>    <ul>
      <li><a href="#21-introduction" id="markdown-toc-21-introduction">2.1 Introduction</a></li>
      <li><a href="#22-related-work" id="markdown-toc-22-related-work">2.2 Related Work</a>        <ul>
          <li><a href="#221-optimization-based-approaches" id="markdown-toc-221-optimization-based-approaches">2.2.1 Optimization-based Approaches</a></li>
          <li><a href="#222-data-driven-approaches-using-reinforcement-learning" id="markdown-toc-222-data-driven-approaches-using-reinforcement-learning">2.2.2 Data-driven Approaches using Reinforcement Learning</a></li>
          <li><a href="#223-기존-연구의-한계와-문제점" id="markdown-toc-223-기존-연구의-한계와-문제점">2.2.3 기존 연구의 한계와 문제점</a></li>
          <li><a href="#224-본-논문의-contribution" id="markdown-toc-224-본-논문의-contribution">2.2.4 본 논문의 contribution</a></li>
        </ul>
      </li>
      <li><a href="#23-communication-system-model-and-problem-formulation" id="markdown-toc-23-communication-system-model-and-problem-formulation">2.3 Communication System Model and Problem Formulation</a>        <ul>
          <li><a href="#231-통신-시스템-모델" id="markdown-toc-231-통신-시스템-모델">2.3.1 통신 시스템 모델</a></li>
          <li><a href="#232-네트워크-메트릭-정의" id="markdown-toc-232-네트워크-메트릭-정의">2.3.2 네트워크 메트릭 정의</a></li>
          <li><a href="#233-슬라이스-유형-및-intent-정의" id="markdown-toc-233-슬라이스-유형-및-intent-정의">2.3.3 슬라이스 유형 및 Intent 정의</a></li>
        </ul>
      </li>
      <li><a href="#24-proposed-intent-aware-rrs-using-reinforcement-learning" id="markdown-toc-24-proposed-intent-aware-rrs-using-reinforcement-learning">2.4 Proposed Intent-aware RRS Using Reinforcement Learning</a>        <ul>
          <li><a href="#241-reinforcement-learning-agent" id="markdown-toc-241-reinforcement-learning-agent">2.4.1 Reinforcement Learning Agent</a></li>
          <li><a href="#242-observation-space" id="markdown-toc-242-observation-space">2.4.2 Observation Space</a></li>
          <li><a href="#243-action-space" id="markdown-toc-243-action-space">2.4.3 Action Space</a></li>
          <li><a href="#244-intent-drift-reward-calculation-and-slice-prioritzation" id="markdown-toc-244-intent-drift-reward-calculation-and-slice-prioritzation">2.4.4 Intent Drift Reward Calculation and Slice Prioritzation</a>            <ul>
              <li><a href="#2441-embb-슬라이스의-보상-구성-요소" id="markdown-toc-2441-embb-슬라이스의-보상-구성-요소">2.4.4.1 eMBB 슬라이스의 보상 구성 요소</a></li>
              <li><a href="#2442-urllc-슬라이스의-보상-구성-요소" id="markdown-toc-2442-urllc-슬라이스의-보상-구성-요소">2.4.4.2 URLLC 슬라이스의 보상 구성 요소</a></li>
              <li><a href="#2443-be-슬라이스의-보상-구성-요소" id="markdown-toc-2443-be-슬라이스의-보상-구성-요소">2.4.4.3 BE 슬라이스의 보상 구성 요소</a></li>
            </ul>
          </li>
          <li><a href="#245-baselines" id="markdown-toc-245-baselines">2.4.5 Baselines</a></li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="abstract">Abstract</h1>

<p>본 논문은 5G 및 그 이후의 네트워크에서 중요한 기술인 <code class="language-plaintext highlighter-rouge">RAN Slicing</code>의 효율적인 무선 자원 관리를 다룬다. RAN 슬라이스란 하나의 물리적 네트워크에서 여러 개의 가상 무선 네트워크가 독립적으로 작동하는 것을 말한다. 이 논문은 Online Convex Optimization이라는 새로운 방법을 통해 슬라이스 간의 무선 자원을 동적으로 배정하는 문제를 해결한다. 기존의 복잡한 모델 기반 접근법 대신, 이전 할당 데이터를 바탕으로 현재의 자원 배분을 학습하여 성능을 최적화하는 저복잡도 알고리즘을 제안한다. 시뮬레이션 결과, 이 방법이 기존 최적화 전략과 유사한 결과를 보이는 것으로 나타났다.</p>

<hr />

<h1 id="논문의-구조">논문의 구조</h1>

<ol>
  <li>Introduction</li>
  <li>Related Work</li>
  <li>Communication System Model and Problem Formulation</li>
  <li>Proposed Intent-Aware RRS Using Reinforcement Learning</li>
  <li>Simulation Results</li>
  <li>Conclusion</li>
</ol>

<hr />

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>통신 학회 동계 발표회 대비</li>
  <li>오픈소스 시뮬레이터를 이용한 알고리즘 제작</li>
</ol>

<h2 id="11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</h2>

<ul>
  <li><strong>연구 주제</strong>: RAN 슬라이싱에서 Intent Aware Radio Resource Scheduling을 강화학습을 습용한 Radio Resource Management를 강화학습을 활용해 최적화</li>
  <li><strong>선택 이유</strong>
    <ul>
      <li>5G 네트워크에서는 서비스별로 다른 QoS 요구사항이 존재하여 네트워크 슬라이싱이 필수적</li>
      <li>무선 자원이 제한적이므로 효율적 관리가 중요</li>
      <li>기존 RRS 기법은 슬라이스별 의도를 충분히 고려하지 못하거나 변화하는 네트워크 상태에 적응하지 못하는 한계가 있음</li>
      <li>데이터 기반의 동적 자원 관리가 필요한 상황</li>
    </ul>
  </li>
</ul>

<h2 id="12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</h2>

<ul>
  <li>목표 1: 슬라이스 간 자원 할당을 최적화하여 각 슬라이스의 QoS 요구를 충족</li>
  <li>목표 2: Intent Drift를 방지하여 네트워크 상태 변화르 인한 QoS 위반 방지</li>
  <li>목표 3: 실시간 네트워크 상태에 적응할 수 있는 동적 자원 관리 제공</li>
  <li>목표 4: eMBB, URLLC, BE 슬라이스 별 고유한 요구사항을 지원</li>
</ul>

<h2 id="13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</h2>

<ul>
  <li>강화 학습 방법: Soft Actor-Critic (SAC) 알고리즘을 사용</li>
  <li>구체적 방법:
    <ul>
      <li>관측 공간 정의: 네트워크 상태와 슬라이스 QoS 요구사항을 포함하는 관측 공간을 설계</li>
      <li>보상 함수 설계: 슬라이스별 QoS 요구 충족 여부를 평가하고, intent에서 벗어날 경우 이를 교정할 수 있는 보상 함수 설계</li>
      <li>시뮬레이션 환경: QuaDRiGa 채널 시뮬레이션을 활용하여 현실적인 네트워크 조건에서 알고리즘 성능 검증</li>
    </ul>
  </li>
</ul>

<h2 id="14-what-results-were-obtained">1.4 What results were obtained?</h2>

<ul>
  <li>제안된 RL 기반 RRS 성능
    <ul>
      <li>기존 PF 및 RL 기반 방법들보다 우수한 슬라이스별 QoS 충족률 달성</li>
      <li>네트워크 트래픽 변화에 따라 자원 할당을 동적으로 조정</li>
      <li>Intent Drift를 감지하고 교졍하여 네트워크 상태 변화에도 QoS 요구 유지</li>
      <li>BE 슬라이스의 long-term average throughput 및 5-percentile throughput이 목표에 근접하게 유지</li>
    </ul>
  </li>
</ul>

<h2 id="15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</h2>

<ul>
  <li>의도 기반 자원 스케쥴링의 유효성 입증
    <ul>
      <li>RAN 슬라이싱 환경에서 네트워크 성능을 극대화할 수 있음</li>
    </ul>
  </li>
  <li>결과의 주요 의의
    <ul>
      <li>적응성: 실시간으로 네트워크 상태 변화에 따라 자율적 자원 할당 가능</li>
      <li>확장성: 다양한 슬라이스와 QoS 메트릭을 지웥하여 미래 네트워크에도 적용 가능</li>
      <li>미래 연구 및 응용: 공개된 코드와 프레임워크는 지능형 네트워크 자원 관리와 자율 네트워킹의 기초가 될 수 있음</li>
    </ul>
  </li>
</ul>

<hr />

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<h2 id="21-introduction">2.1 Introduction</h2>

<ul>
  <li><strong>연구 배경</strong>
    <ul>
      <li>5G 및 차세대 네트워크에서는 다양한 서비스의 요구를함지원하기 위해 네트워크 슬라이싱이 핵심 기술로 자리 잡음</li>
      <li>RAN 슬라이싱은 무선 주파수 자원과 같은 제한된 자원을 효율적으로 관리하여 각 슬라이스의 요구를 충족해야함</li>
    </ul>
  </li>
  <li><strong>문제점</strong>
    <ul>
      <li>네트워크 슬라이스 간 무선 자원 스케쥴링은 다양한 SLA(Service Level Agreement)를 만족하는 것이 어려움</li>
      <li>네트워크 트래픽의 변동성과 슬라이스별 QoS 요구의 상이함으로 인해 자원 부족 상황에서 최적의 자원 배분이 복잡해짐</li>
    </ul>
  </li>
  <li><strong>목표</strong>
    <ul>
      <li>Intent-aware 자원 스케쥴링 프레임워크를 제안하여 슬라이스별 QoS 목표를 효과적으로 충족하고 자원 배분을 최적화하는 것을 목표로 함
        <ul>
          <li>슬라이스의 QoS 요구를 SLA에 기반하여 정량적으로 표현</li>
          <li>강화학습을 사용하여 실시간 네트워크 상태 변화에 적응적 자원 할당 수행</li>
          <li>Intent drift를 감지 및 교정하여 네트워크가 지속적으로 SLA 목표를 만족하도록 설계</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h2 id="22-related-work">2.2 Related Work</h2>

<p>기존 연구는 RAN 슬라이싱 환경에서 Radio Resource Scheduling을 최적화하기 위해 다양한 최적화 기법과 기계 학습 기법을 제안함</p>

<h3 id="221-optimization-based-approaches">2.2.1 Optimization-based Approaches</h3>

<ul>
  <li>Lyapunov 최적화
    <ul>
      <li>Lyapunov 최적화 방법은 네트워크의 불확실성을 고려하여 자원 스케쥴링 문제를 최적화함[14]</li>
      <li>장점: 이론적으로 안정성 보장</li>
      <li>단점: 복잡한 네트워크 환경에서 비선형성과 불확실성 처리에 한계</li>
    </ul>
  </li>
  <li>Earliest Deadline First(EDF)
    <ul>
      <li>EDF 스케쥴링은 패킷 전송 시 마감 시간이 가장 짧은 요청을 우선적으로 처리하는 방법임[14]</li>
      <li>한계: 네트워크 요구가 동적으로 변화할 때는 비효율적일 수 있음</li>
    </ul>
  </li>
  <li>Markov Decision Process(MDP)
    <ul>
      <li>MDP는 상태 전이 확률에 따라 최적의 결정을 내리도록 하는 기법으로 자원 할당 문제에 적용됨[15]</li>
      <li>한계: 상태 공간이 커지면 연산 복잡도가 급격히 증가함</li>
    </ul>
  </li>
  <li>Supervised Learning
    <ul>
      <li>네트워크의 과거 데이터를 바탕으로 자원 스케쥴링을 예측하는 방법[16]</li>
      <li>한계: 새로운 환경이나 변화하는 트래픽 패턴에 적응하기 어려움</li>
    </ul>
  </li>
</ul>

<h3 id="222-data-driven-approaches-using-reinforcement-learning">2.2.2 Data-driven Approaches using Reinforcement Learning</h3>

<ul>
  <li>강화 학습과 RAN 슬라이싱
    <ul>
      <li>RL은 네트워크 데이터를 기반으로 정책을 학습하여 자원 스케쥴링을 수행하며, 특히 5G 및 B5G 환경에서 유망한 방법으로 평가받고 있음</li>
    </ul>
  </li>
  <li>기존 강화 학습 기반 RRS 연구
    <ul>
      <li>[9]의 연구
        <ul>
          <li>기법
            <ul>
              <li>O-RAN 표준을 따르는 PPO(Proximal Policy Optimization) 기반의 강화 학습을 활용하여 슬라이스 간(inter-slice) 미 슬라이스 내(intra-slice) 자원 배분을 최적화함</li>
            </ul>
          </li>
          <li>특징
            <ul>
              <li>eMBB, mMTC, URLLC 슬라이스를 고려</li>
              <li>보상함수는 eMBB의 데이터 전송률을 최대화하고, URLLC의 버퍼 크기를 최소화하는 방식으로 설계됨</li>
            </ul>
          </li>
          <li>한계
            <ul>
              <li>각 슬라이스의 세부 의도를 고려하지 않고, QoS 요구사항을 일반적인 네트워크 메트릭 최적화로 단순화함</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>[10]의 연구
        <ul>
          <li>기법
            <ul>
              <li>LSTM 기반의 심층 학습과 A3C(Asynchronous Advantage Actor-Critic) 알고리즘을 결합하여 슬라이스별 자율적 자원 할당 수행</li>
            </ul>
          </li>
          <li>특징
            <ul>
              <li>각 슬라이스에 독립적인 RL 에이전트를 두어 유연한 자원 관리 가능</li>
              <li>자원이 부족할 경우 슬라이스 간 상호작용을 줄이도록 설계</li>
            </ul>
          </li>
          <li>한계
            <ul>
              <li>자원이 충분하지 않은 경우 모든 슬라이스에 부정적 보상을 주어 수렴이 어려움</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>[11]의 연구
        <ul>
          <li>기법
            <ul>
              <li>DDPG(Deep Deterministic Policy Gradient)와 DQN(Double Deep Q-Network)을 결합하여 슬라이스별 자원과 전력을 최소화하는 2단계 스케쥴러를 제안</li>
            </ul>
          </li>
          <li>특징
            <ul>
              <li>상위 레벨 컨트롤러가 각 슬라이스의 최대 및 최소 전송률을 설정하고, 하위 레벨 컨트롤러가 실제 자원 할당을 수행</li>
              <li>슬라이스별 QoS 성능을 고려한 가중치 기반의 보상 함수를 사용함</li>
            </ul>
          </li>
          <li>한계
            <ul>
              <li>슬라이스 간 우선순위를 명시적으로 설정하지 않으며, 네트워크 요구가 변할 경우 적응이 어려움</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>[12], [13]의 연구
        <ul>
          <li>기법
            <ul>
              <li>SLA 만족률을 기반으로 자원 배분을 최적화하는 방법을 제안</li>
            </ul>
          </li>
          <li>특징
            <ul>
              <li>[12]는 LSTM과 A2C(Advantage Actor-Critic) 알고리즘을 결합하여 슬라이스 대역폭을 동적으로 할당</li>
              <li>[13]은 Ape-X 기반의 분산형 심층 강화 학습을 사용하여 Resource Block 할당을 최적화</li>
            </ul>
          </li>
          <li>한계
            <ul>
              <li>슬라이스 간의 우선순위 설정이 명확하지 않으며, QoS 목표의 세부적인 정량적 측정이 부족함</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h3 id="223-기존-연구의-한계와-문제점">2.2.3 기존 연구의 한계와 문제점</h3>

<ol>
  <li>슬라이스별 Intent aware 접근 부족
    <ul>
      <li>기존 연구는 슬라이스의 QoS 목표를 정량적 의도로 구체적으로 정의하지 못함[9, 10, 11]</li>
      <li>각 슬라이스의 목표가 명확하지 않으므로, 특정 메트릭의 최적화가 실제로 의도를 충족하는지 판단하기 어려움</li>
    </ul>
  </li>
  <li>보상 함수의 설계 문제
    <ul>
      <li>보상 함수가 특정 네트워크 메트릭만을 최적화하는 데 중점을 둬, intent drift를 인지하거나 교정하지 못함[9, 10, 11, 13]</li>
    </ul>
  </li>
  <li>슬라이스 간 우선순위 미고려
    <ul>
      <li>일부 연구에서는 슬라이스 간 자원 경쟁 시 우선순위를 명확히 설정하지 않아 중요한 슬라이스의 요구를 충족하지 못할 수 있음[11]</li>
    </ul>
  </li>
  <li>슬라이스별 상이한 메트릭 고려 부족
    <ul>
      <li>모든 슬라이스에 동일한 메트릭을 적용하거나 제한적인 메트릭만 고려하여 다양한 네트워크 시나리오에서 확장성이 부족함[9, 10, 11]</li>
    </ul>
  </li>
</ol>

<h3 id="224-본-논문의-contribution">2.2.4 본 논문의 contribution</h3>

<ol>
  <li>Intent 기반 RRS 설계
    <ul>
      <li>본 논문은 각 슬라이스의 의도를 명확히 정의하고, 이를 QoS 목표로 변환하여 보상 함수에 반영</li>
    </ul>
  </li>
  <li>Intent drift 감지 및 교정
    <ul>
      <li>네트워크 상태가 변화할 때 의도 드리프트를 자동으로 인지하고 보상 함수를 통해 이를 교정하공 메커니즘을 제공</li>
    </ul>
  </li>
  <li>슬라이스 간 우선순위 설정
    <ul>
      <li>가중치를 부여하여 중요한 슬라이스에 자원을 우선적으로 배정하며, 부족한 자원 상황에서도 QoS 목표를 최대한 충족할 수 있도록 설계</li>
    </ul>
  </li>
  <li>다양한 메트릭 지원
    <ul>
      <li>eMBB, URLLC, BE와 같은 다양한 슬라이스 타입에 맞춤형 메트릭을 적용하여 확장성이 높은 RRS를 제공</li>
    </ul>
  </li>
</ol>

<h2 id="23-communication-system-model-and-problem-formulation">2.3 Communication System Model and Problem Formulation</h2>

<h3 id="231-통신-시스템-모델">2.3.1 통신 시스템 모델</h3>

<ul>
  <li>대규모 밀리미터파 MIMO 시스템
    <ul>
      <li>\(C = \{1, 2, ..., C\}\)개의 셀로 구성된 네트워크를 가정하고, 타겟 셀(\(C_{target}\))에서 분석을 수행</li>
      <li>송신 안테나 수: \(N_t\), 수신 안테나 수: \(N_u\)</li>
      <li>대역폭 \(B MHz\)로 나뉘어진 주파수 자원은 Resource Block으로 세분화되며, 이를 Resource Block Group으로 묶어 관리함</li>
    </ul>
  </li>
  <li>슬라이스 구조
    <ul>
      <li>각 셀은 \(S={1, 2, ..., S}\)개의 슬라이스를 가짐</li>
      <li>각 슬라이스 \(s\)는 동일한 QoS 요구를 가진 UE \(U_s = \{1, 2, ..., U_s\}\)로 구성됨</li>
    </ul>
  </li>
  <li>시간 단위
    <ul>
      <li>스케쥴링은 최소 시간 단위인 TTI \(t\)에 따라 수행되며 \(t_n = t \times n\)은 스텝 \(n\)에서의 시간값을 의미</li>
    </ul>
  </li>
</ul>

<h3 id="232-네트워크-메트릭-정의">2.3.2 네트워크 메트릭 정의</h3>

<ul>
  <li>\(RSRP_{b,u}\): 기지국 \(b\)가 UE \(u\)로 송신하는 기준 신호 수신 전력
    <ul>
      <li>\(PL\): Path Loss</li>
      <li>\(SF\): Shadow Fading</li>
      <li>\(\vert \alpha_0 \vert ^2\): 안테나 이득</li>
      <li>\(\vert \alpha_{a,z} \vert ^2\): 경로 계수</li>
      <li>\(P_{u, b}\): 사용자 \(u\)가 기지국 \(b\)로부터 수신하는 전력</li>
    </ul>
  </li>
</ul>

\[{RSRP}_{b,u} = \text{PL} \cdot \text{SF} \cdot |\alpha_0|^2 + \sum_{a=1}^{A} \sum_{z=1}^{Z} |\alpha_{a,z}|^2 P_{u,b}, \tag{1}\]

<ul>
  <li>Spectral Efficiency(SE)
    <ul>
      <li>\(I^{b,u}_{inter}\): 셀 간 간섭</li>
      <li>\(\sigma^2\): 잡음 전력</li>
    </ul>
  </li>
</ul>

\[\text{SE}_{b,u}^{\text{UP}}(n) = \log_2 \left( 1 + \frac{\text{RSRP}_{b,u}}{I_{b,u}^{\text{inter}} + \sigma^2} \right), \tag{2}\]

<ul>
  <li>간섭 전력 합 계산
    <ul>
      <li>타겟 셀 \(C_{target}\)에서의 간섭 전력은 주변 셀에서 발생하는 간섭의 합으로 주어짐</li>
      <li>\(max_{(6)}(RSRP_{i,u})\)는 타겟 UE \(u\)에 대해 가장 큰 간섭 신호를 제공하는 상위 6개의 기지국을 고려한 값임</li>
      <li>간섭은 상위 6개의 기지국에서 오는 전력 합으로 근사하여 계산함</li>
    </ul>
  </li>
</ul>

\[I_{b,u}^{\text{inter}} = \sum_{i \neq b} \max_{(6)}(\text{RSRP}_{i,u}), \tag{3}\]

<ul>
  <li>Resource Block Group(RBG)
    <ul>
      <li>\(\mathbb{R}\): step \(n\)에서 각 슬라이스에 할당되는 RBG의 집합</li>
      <li>\(R_{S}(N)\): step \(n\)에서 슬라이스 \(s\)에 할당되는 RBG 개수</li>
    </ul>
  </li>
</ul>

\[\mathbb{R}_{n} = [R_{1}(n), R_{2}(n), ..., R_{S}(N)], \tag{4}\]

<p>매 step \(n\)에서 할당되는 RBG 개수를 합하면 \(R\)로 일정</p>

\[\sum_{s=1}^{S} R_{s}(n) = R, \tag{5}\]

<p>step에서의 RBG 개수가 \(R\)로 고정되어 있기 때문에 RBG 할당의 경우의 수는 아래와 같음</p>

\[\mathbb{R}_{comb} = [\mathbb{R}_{comb}^{1}, \mathbb{R}_{comb}^{2}, ..., \mathbb{R}_{comb}^{\vert \mathbb{R}_{comb} \vert}], \tag{6}\]

<ul>
  <li>Throughput
    <ul>
      <li>\(r_u(n)\): 사용자 \(u\)의 step \(n\)에서의 최대 throughput, 단위는 Mbps</li>
      <li>\(R_s^{u}(n)\): step \(n\)에서 슬라이스 \(s\)의 사용자 \(u\)에 할당된 RBG 수</li>
      <li>\(B\): 대역폭</li>
      <li>\(PS\): Packet Size</li>
      <li>\(SE_u(n)\): step \(n\)에서 사용자 \(u\)의 SE</li>
    </ul>
  </li>
</ul>

\[r_u(n) = \left\lfloor \frac{R_s^u(n) / R \cdot B \cdot \text{SE}_u(n)}{\text{PS}} \right\rfloor \text{PS}, \tag{7}\]

<ul>
  <li>Effective Throughput
    <ul>
      <li>실제 전송된 데이터량을 나타내며, 버퍼에 존재하는 데이터량에 따라 제한됨</li>
      <li>\(b_u(n)\): 사용자 \(u\)의 버퍼에 저장된 데이터</li>
    </ul>
  </li>
</ul>

\[r_u^{eff}(n) = min(r_u(n), b_u(n)), \tag{8}\]

<ul>
  <li>Buffer Occupancy(버퍼 점유율)
    <ul>
      <li>사용자 단말 버퍼의 점유 상태를 나타내는 메트릭</li>
      <li>\(b_{max}\): 버퍼의 최대 용량</li>
    </ul>
  </li>
</ul>

\[b^{occ}_{u}(n) = \frac{b_u(n)}{b_{max}}, \tag{9}\]

<ul>
  <li>Packet Loss Rate(패킷 손실률)
    <ul>
      <li>\(p_u(n)\): step \(n\)에서 사용자 \(u\)의 패킷 손실률</li>
      <li>\(m\): 패킷 손실률을 계산하기 위한 관찰 윈도우의 크기</li>
      <li>\(d_u(i)\): step \(i\)에서 손실된 패킷의 양</li>
      <li>\(b_u(i)\): step \(i\)에서 사용자 \(u\)의 버퍼에 남아있는 데이터양</li>
      <li>\(r_u^{rqt}(i)\): step \(i\)에서의 전송 요구량(required transmission rate)</li>
    </ul>

    <ol>
      <li>\(n \ge m\)인 경우: 관찰 윈도우가 충분히 확보된 경우
        <ul>
          <li>패킷 손실률은 최근 \(m\)개의 시간 스텝 동안 손실된 패킷의 비율로 계산됨</li>
          <li>분자는 \((n-m)\)부터 \(n\)까지의 손실된 패킷 수를 합한 값으로, 손실된 총 패킷의 양을 의미함</li>
          <li>분모는 \((n-m)\) 시점에서의 버퍼에 남아 있는 데이터량과 최근 \(m\)개 시간 step 동안의 전송 요구량의 합으로 구성</li>
        </ul>
        <ul>
          <li>이는 해당 기간 동안 네트워크가 전송할 수 있었던 잠재적인 데이터량을 의미함</li>
        </ul>
      </li>
      <li>\(n &lt; m\)인 경우: 관찰 윈도우 초기 구간
        <ul>
          <li>step \(n\)이 관찰 윈도우 \(m\)보다 작아, 네트워크 초반의 데이터만을 기반으로 손실률을 계산해야 함</li>
          <li>분자는 \(i = 1\)부터  \(n\)까지의 손실된 패킷을 합한 값으로 초기 구간에서 발생한 손실을 반영</li>
          <li>분모는 초기 버퍼 상태 \(b_u(1)\)와 초반부터 step \(n\)까지의 전송 요구량의 합</li>
        </ul>
      </li>
    </ol>
  </li>
</ul>

\[p_u(n) = 
\begin{cases} 
\frac{\sum_{i=(n-m)}^{n} d_u(i)}{b_u(n - m) + \sum_{i=(n-m)}^{n} r_u^{\text{rqt}}(i)}, &amp; \text{if } n \geq m \\[12pt]
\frac{\sum_{i=1}^{n} d_u(i)}{b_u(1) + \sum_{i=1}^{n} r_u^{\text{rqt}}(i)}, &amp; \text{if } n &lt; m
\end{cases}, \tag{10}\]

<ul>
  <li>Average Buffer Latency(평균 지연 시간)
    <ul>
      <li>버퍼에 저장된 패킷이 전송되기까지 대기한 평균 시간</li>
      <li>\(\ell_u(n)\): step \(n\)에서 사용자 \(u\)의 평균 버퍼 지연 시간</li>
      <li>\(i\): 지연 시간을 나타내는 인덱스</li>
      <li>\(l_u^u(n)\): step \(n\)에서 지연 시간 \(i\)를 가지는 패킷의 개수</li>
      <li>\(l_{max}\): 허용 가능한 최대 지연 시간</li>
    </ul>
  </li>
</ul>

\[\ell_u(n) = \frac{\sum_{i=0}^{l_{\max}} i \, l_n^u(i)}{\sum_{i=0}^{l_{\max}} l_n^u(i)}, \tag{11}\]

<ul>
  <li>Long-Term Throughput
    <ul>
      <li>일정 기간 동안의 평균 throughput을 계산함</li>
      <li>\(m\): 측정 윈도우 크기</li>
      <li>마찬가지로 step이 관찰 윈도우와 클 때와 크지 않을 때로 나눌 수 있음</li>
    </ul>
  </li>
</ul>

\[g_u(n) = 
\begin{cases} 
\frac{\sum_{i=(n-m)}^{n} r_u(i)}{m}, &amp; \text{if } n \geq m \\[12pt]
\frac{\sum_{i=1}^{n} r_u(i)}{n}, &amp; \text{if } n &lt; m
\end{cases}, \tag{12}\]

<ul>
  <li>Fifth-Percentile Throughput
    <ul>
      <li>하위 5%의 전송률을 나타내며 네트워크 최저 성능 보장에 사용됨</li>
      <li>\(P_{5\%}\): 하위 5% 값을 계산하는 함수</li>
    </ul>
  </li>
</ul>

\[f_u(n) = 
\begin{cases} 
P_{5\%}(r_u(n - m), \dots, r_u(n)), &amp; \text{if } n \geq m \\[12pt]
P_{5\%}(r_u(1), \dots, r_u(n)), &amp; \text{if } n &lt; m
\end{cases}, \tag{13}\]

<h3 id="233-슬라이스-유형-및-intent-정의">2.3.3 슬라이스 유형 및 Intent 정의</h3>

<ol>
  <li>eMBB 슬라이스
    <ul>
      <li>대규모 데이터 전송을 필요로 하는 서비스</li>
      <li>QoS 요구</li>
    </ul>
    <ul>
      <li>최소 전송률: \(r_{eMBB}^{req}\)</li>
      <li>평균 지연 시간: \(l_{eMBB}^{req}\) 이하</li>
      <li>패킷 손실률: \(p_{eMBB}^{req}\) 이하</li>
    </ul>
  </li>
  <li>URLLC 슬라이스
    <ul>
      <li>초저지연 및 높은 신뢰성을 요구하는 서비스</li>
      <li>QoS 요구</li>
    </ul>
    <ul>
      <li>최소 전송률: \(r_{URLLC}^{req}\)</li>
      <li>평균 지연 시간: \(l_{URLLC}^{req}\) 이하</li>
      <li>패킷 손실률: \(p_{eMBB}^{req}\) 이하</li>
    </ul>
  </li>
  <li>BE 슬라이스 (Best-Effort)
    <ul>
      <li>긴급하지 않은 트래픽</li>
      <li>QoS 요구</li>
    </ul>
    <ul>
      <li>장기 평균 전송률: \(g_{BE}^{req}\)</li>
      <li>5퍼센타일 전송률: \(f_{BE}^{req}\)</li>
    </ul>
  </li>
</ol>

<ul>
  <li>슬라이스의 평균 성능 메트릭
    <ul>
      <li>\(SM_{s}\): 슬라이스 \(s\)의 평균 성능 메트릭</li>
      <li>\(U_{s}\): 슬라이스 \(s\)에 속한 사용자 단말의 총 수</li>
      <li>\(SM_{u}\): 사용자 단말 \(u\)에서 측정된 개별 성능 메트릭</li>
    </ul>
  </li>
</ul>

\[\text{SM}_s = \frac{\sum_{u=1}^{U_s} \text{SM}_u}{U_s}, \tag{14}\]

<h2 id="24-proposed-intent-aware-rrs-using-reinforcement-learning">2.4 Proposed Intent-aware RRS Using Reinforcement Learning</h2>

<p><img src="/assets/img/blog/0131/fig/Fig 1.png" alt="Fig 1" /></p>

<p>본 그림은 강화학습 기반의 Intent-Aware RRS 동작 단계를 나타내며, 두 개의 closed loops로 구성 됨. 강화 학습 에이전트가 각 루프 내에서 동작함</p>

<ol>
  <li>Recognize/Generate Intent(의도 인식 및 생성)
    <ul>
      <li>사용자의 서비스 요청 또는 네트워크 운영자가 설정한 QoS 요구사항(SLA)를 인식하고 이를 Intent로 생성</li>
      <li>예를 들어, eMBB는 높은 데이터 전송률 요구를, URLLC는 초저지연과 높은 신뢰성을 요구하는 등 각 슬라이스별 의도가 정의됨</li>
      <li>생성된 의도는 다음 단계에서 네트워크 운영에 적합한 정량적 QoS 목표로 변환됨</li>
    </ul>
  </li>
  <li>Translate/Refine(의도 변환 및 정제)
    <ul>
      <li>사용자나 네트워크 운영자가 설정한 Intent를 정량적 QoS로 변환</li>
      <li>이 단계는 슬라이스별 전송률, 지연 시간, 패킷 손실률 등의 정확한 메트릭으로 의도를 정의하는 과정</li>
      <li>변환된 QoS 목표는 강화 학습 기반의 Learn/Plan 단계에서 자원 할당 계획 수립에 활용됨</li>
      <li>이 과정은 자동화되어 있으며, 사람의 개입 없이도 Intent 변화에 따라 자동으로 조정됨</li>
    </ul>
  </li>
  <li>Learn/Plan(학습 및 계획 수립)
    <ul>
      <li>강화 학습 에이전트가 현재 네트워크 상태(Observation Space)를 기반으로 자원 할당 정책을 학습</li>
      <li>에이전트는 <strong>Intent Drift</strong>를 감지하고 보상 함수를 통해 이를 교정함
        <ul>
          <li>Intent Drift: 실제 네트워크 성능이 의도된 QoS 목표에서 벗어나는 형상</li>
        </ul>
      </li>
      <li>학습된 정책은 각 슬라이스에 필요한 자원을 효율적으로 할당하여 QoS 목표를 달성하도록 계획을 수립함</li>
    </ul>
  </li>
  <li>Configure/Provision(자원 구성 및 할당)
    <ul>
      <li>학습된 자원 할당 계획에 따라 네트워크 자원을 구성하고 각 슬라이스에 자원을 할당</li>
      <li>기지국의 RBG와 같은 물리적 자원들이 슬라이스 간에 배분됨</li>
      <li>네트워크 상태 변화에 실시간으로 적응하여 동적으로 자원 재할당이 이루어짐</li>
    </ul>
  </li>
  <li>Monitor/Observe(모니터링 및 관찰)
    <ul>
      <li>네트워크의 실시간 상태 정보를 모니터링하여 현재 성능이 설정된 의도와 일치하는지 확인</li>
      <li>모니터링하는 메트릭에는 전송률, 지연 시간, 패킷 손실률 등이 포함</li>
      <li>관찰된 정보는 <strong>Observation Space</strong>로 전달되어 강화 학습 에이전트가 이후 학습에 사용할 수 있도록 함</li>
    </ul>
  </li>
  <li>Analyze/Aggregate(분석 및 집계)
    <ul>
      <li>네트워크에서 수집된 다양한 메트릭 데이터를 분석하고 슬라이스별로 집계하여 QoS 요구가 충족되었는지 평가</li>
      <li>각 슬라이스의 전송률, 지연 시간, 패킷 손실률 등 핵심 성능 지표를 계산하여 종합적인 네트워크 상태를 파악</li>
    </ul>
  </li>
  <li>Validate(검증)
    <ul>
      <li>Analyze/Aggregate 단계에서 집계된 성능 메트릭을 바탕으로 현재 네트워크 상태가 의도된 QoS 목표를 충족하는지 검증</li>
      <li>만약 QoS 목표를 충족하지 못하믄 Intent Drift가 발생했다 간주하고, 이를 보상 함수에 반영하여 학습 과정에서 교정</li>
    </ul>
  </li>
  <li>Report(보고)
    <ul>
      <li>최종적으로, 네트워크의 상태와 각 슬라이스의 QoS 성능을 사용자 또는 네트워크 운영자에게 시각적 그래프 및 보고서 형태로 제공</li>
      <li>보고된 데이터는 의도 변화에 따른 새로운 정책 수립에도 참고</li>
    </ul>
  </li>
</ol>

<ul>
  <li>두 개의 Closed loop 설명
    <ul>
      <li>Inner Loop
        <ul>
          <li>강화 학습 에이전트가 주도하는 루프이며, Translate/Refine \(\rightarrow\) Learn/Plan \(\rightarrow\) Configure/Provision 단계를 순환</li>
          <li>실시간 네트워크 상태 변화에 다라 자원을 동적으로 조정하여 각 슬라이스의 QoS 목표를 충족</li>
        </ul>
      </li>
      <li>Outer Loop
        <ul>
          <li>네트워크 운영자 또는 자동화된 시스템이 의도를 생성하고 성능을 보장하는 Recognize/Generate Intent \(\rightarrow\) Report 경로로 이루어짐</li>
          <li>새로운 Intent가 생성되거나 QoS 목표가 변경될 때 강화학습 에이전트가 학습해야 할 목표르 업데이트</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h3 id="241-reinforcement-learning-agent">2.4.1 Reinforcement Learning Agent</h3>

<ul>
  <li>강화학습은 최적의 정책 \(\pi\)를 학습하여 누적 보상을 최대화하는 것을 목표로 함. 이 때, 누적 보상은 시간의 따른 보상의 총합으로 정의됨</li>
  <li>SAC 알고리즘은 탐색과 수렴 간의 균형을 유지하여 네트워크 상태 변화에 빠르게 적응하는 강화학습 방식</li>
  <li><strong>Temperature Parameter</strong>를 사용해 탐색성과 수렴성을 조정하여 최적의 자원 배분을 보장</li>
</ul>

\[J(\pi) = \sum_{t=0}^{T} \mathbb{E} \big[ \text{RW}(s_t, a_t) + \varrho \mathcal{H}(\cdot | s_t) \big]\]

<h3 id="242-observation-space">2.4.2 Observation Space</h3>

<ul>
  <li>\(\mathbf{O}_n\): step \(n\)에서 상태 \(s_t\)를 나타내는 정보를 포함하는 observation 공간</li>
  <li>\(\mathbf{r}_s\): RAN 슬라이스 intent 벡터들
    <ul>
      <li>eMBB: \(\mathbf{r}_{embb} = [r_{embb}^{req}, l_{embb}^{req}, p_{embb}^{req}]\)</li>
      <li>URLLC: \(\mathbf{r}_{urllc} = [r_{urllc}^{req}, l_{urllc}^{req}, p_{urllc}^{req}]\)</li>
      <li>BE: \(\mathbf{r}_{be} = [g_{be}^{req}, f_{be}^{req}]\)</li>
    </ul>
  </li>
  <li>\(\mathbf{s}_s\): 슬라이스 메트릭</li>
  <li>\(\mathbf{u}_u\): 사용자 메트릭</li>
</ul>

\[\mathbf{O}_n = [\mathbf{r}_1, ..., \mathbf{r}_{S}, \mathbf{s}_1, ..., \mathbf{s}_{S}, \mathbf{u}_1, ..., \mathbf{u}_{U}]\]

<p>Observation 공간에서 슬라이스 메트릭이 결국 사용자 메트릭의 평균으로 계산되기 때문에 이를 반영해 더 적은 차원의 Observation 공간을 재정의할 수 있음</p>

\[\mathbf{O}_{n}^{lim} = [\mathbf{r}_1,..., \mathbf{r}_S, \mathbf{s}_1, ..., \mathbf{s}_{S}]\]

<p>한정된 Observation 공간을 사용함으로써 UE 수가 증가함에 따라 계산의 복잡도가 기하급수적으로 증가하지 않음</p>

<p>또한 Observation 공간과 Reward 함수에서 Batch Normalization을 적용하여</p>
<ul>
  <li>Gradient 계산 시 parameter 스케일에 대한 의존성을 줄임</li>
  <li>Parameter 초기값에 대한 민감도를 완화하여 학습 초기에 발생할 수 잇는 발산 위험을 방지</li>
  <li>학습 속도를 향상시키고, Hyperparameter 선택을 쉽게 함</li>
</ul>

<p>이를 통해,</p>

<ul>
  <li>Observation 공간 내 다양한 입력(슬라이스별 throughput, latency, packet loss rate 등)의 값 범위가 서로 다르더라도 Batch Normalization을 통해 입력을 정규화하여 효율적 학습이 가능해짐</li>
  <li>특히, reward 함수에서도 값의 크기를 정규화함으로써 정확한 reward 계산과 정확한 gradient 업데이트가 이루어짐</li>
</ul>

<h3 id="243-action-space">2.4.3 Action Space</h3>

<ul>
  <li>\(a_s\): 슬라이스 \(s\)에 대한 자원 할당 결정
    <ul>
      <li>\(a_s\)는 [-1, 1] 범위 내에서 결정</li>
    </ul>
  </li>
</ul>

\[\mathbf{A}_{n} = [a_1, a_2, ..., a_S]\]

<ul>
  <li>행동 선택과 자원 할당 맵핑 과정
    <ul>
      <li>행동 벡터의 샘플링
        <ul>
          <li>각 시간 스텝 \(n\)에서 강화 학습 에이전트는 가우시안 분포 기반의 Action 벡터 \(\mathbf{A}_n\)을 선택</li>
          <li>\(\mu_s\): 현재 상태 \(s\)에 따라 학습된 평균값</li>
          <li>\(\sigma_s\): 행동의 표준 편차로, 탐색의 정도를 결정</li>
          <li>이 값은 [-1, 1] 범위로 제한되며, 네트워크 슬라이스별 자원 할당 결정을 나타냄</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

\[a_s \sim \mathcal{N} (\mu_{s}, \sigma^2_{s})\]

<ul>
  <li>행동을 자원 할당으로 매핑하는 수식</li>
</ul>

<p>에이전트가 선택한 행동 벡터 \(\mathbf{A}_n\)은 네트워크 시스템의 실제 자원 할당 옵션으로 변환됨. 이는 아래의 수식과 같음</p>

\[index(n) = arg min_{option} d(\mathbf{R}_{comb}, \mathbf{R}_n)\]

<ul>
  <li>\(\mathbf{R}_{comb}\): 미리 정의된 자원 할당 옵션 집합</li>
  <li>유클라디안 거리 \(d\): 행동 벡터 \(\mathbf{A}_n\)과 자원 할당 옵션 간의 차이를 측정하는 거리 계산</li>
</ul>

<h3 id="244-intent-drift-reward-calculation-and-slice-prioritzation">2.4.4 Intent Drift Reward Calculation and Slice Prioritzation</h3>

<p>이 챕터에서는 intent가 설정된 네트워크 슬라이스의 QoS 목표 충족여부에 따라 보상 함수를 정의함. 보상 함수는 네트워크 상태가 intent에서 벗어났을 때(intent drift) 음수의 보상을 부여하여 이를 교정하고, intent를 충족했을 때 보상 값은 0이 됨</p>

<ul>
  <li>보상 함수의 전체 구조
보상함수는 슬라이스 유형별로 나뉘어 각 슬라이스의 QoS intent 충족여부에 따라 계산됨</li>
</ul>

\[\text{RW}(n) = \sum_{i \in S_{\text{embb}}} \text{RW}_{\text{embb},i}(n) + \sum_{i \in S_{\text{urllc}}} \text{RW}_{\text{urllc},i}(n) + \sum_{i \in S_{\text{be}}} \text{RW}_{\text{be},i}(n)\]

<h4 id="2441-embb-슬라이스의-보상-구성-요소">2.4.4.1 eMBB 슬라이스의 보상 구성 요소</h4>

\[\text{RW}_{\text{embb}}(n) = -\big( \text{RW}_{\text{embb}}^r(n) + \text{RW}_{\text{embb}}^\ell(n) + \text{RW}_{\text{embb}}^p(n) \big)\]

<ul>
  <li>\(\text{RW}_{\text{embb}}^{r}(n)\): Throughput 보상</li>
  <li>\(\text{RW}_{\text{embb}}^{l}(n)\): 평균 버퍼 지연 시간 보상</li>
  <li>
    <p>\(\text{RW}_{\text{embb}}^{i}(n)\): 패킷 손실률 보상</p>
  </li>
  <li>Throughput 보상
    <ul>
      <li>\(w_{\text{embb}}^{r}\): Throughput의 intent에 대한 가중치</li>
      <li>\(r_{\text{embb}}^{req}\): eMBB 슬라이스의 요구 throughput</li>
      <li>\(r_{\text{embb}}(n)\): 실제 throughput</li>
    </ul>
  </li>
</ul>

\[\text{RW}_{\text{embb}}^r(n) =
\begin{cases}
    w_{\text{embb}}^r \dfrac{r_{\text{embb}}^{\text{req}} - r_{\text{embb}}(n)}{r_{\text{embb}}^{\text{req}}}, &amp; \text{if } r_{\text{embb}}(n) &lt; r_{\text{embb}}^{\text{req}} \\[10pt]
    0, &amp; \text{if } r_{\text{embb}}(n) \geq r_{\text{embb}}^{\text{req}}
\end{cases}\]

<ul>
  <li>평균 버퍼 지연 시간 보상
    <ul>
      <li>\(w_{\text{embb}}^{l}\): 평균 버퍼 지연 시간에 대한 가중치</li>
      <li>\(l_{\text{embb}}^{req}\): 요구 버퍼 지연 시간</li>
      <li>\(l_{max}\): 허용 가능한 최대 지연 시간</li>
    </ul>
  </li>
</ul>

\[\text{RW}_{\text{embb}}^\ell(n) =
\begin{cases}
    w_{\text{embb}}^\ell \dfrac{\ell_{\text{embb}}(n) - \ell_{\text{embb}}^{\text{req}}}{\ell_{\text{max}} - \ell_{\text{embb}}^{\text{req}}}, &amp; \text{if } \ell_{\text{embb}}(n) &gt; \ell_{\text{embb}}^{\text{req}} \\[10pt]
    0, &amp; \text{if } \ell_{\text{embb}}(n) \leq \ell_{\text{embb}}^{\text{req}}
\end{cases}\]

<ul>
  <li>패킷 손실률 보상
    <ul>
      <li>\(w_{\text{embb}}^{p}\): 평균 버퍼 지연 시간에 대한 가중치</li>
      <li>\(p_{\text{embb}}^{req}\): 요구 버퍼 지연 시간</li>
      <li>$$p_{\text{embb}}(n): 실제 패킷 손실률</li>
    </ul>
  </li>
</ul>

\[\text{RW}_{\text{embb}}^p(n) =
\begin{cases}
    w_{\text{embb}}^p \dfrac{p_{\text{embb}}(n) - p_{\text{embb}}^{\text{req}}}{1 - p_{\text{embb}}^{\text{req}}}, &amp; \text{if } p_{\text{embb}}(n) &gt; p_{\text{embb}}^{\text{req}} \\[10pt]
    0, &amp; \text{if } p_{\text{embb}}(n) \leq p_{\text{embb}}^{\text{req}}
\end{cases}\]

<h4 id="2442-urllc-슬라이스의-보상-구성-요소">2.4.4.2 URLLC 슬라이스의 보상 구성 요소</h4>

\[\text{RW}_{\text{urllc}}(n) = -(\text{RW}_{\text{urllc}}^{r}(n) + \text{RW}_{\text{urllc}}^{l}(n) + \text{RW}_{\text{urllc}}^{p}(n))\]

<ul>
  <li>각 메트릭은 eMBB 슬라이스와 동일한 방식으로 계산되며, 각 메트릭에 대한 가중치가 설정됨</li>
</ul>

<h4 id="2443-be-슬라이스의-보상-구성-요소">2.4.4.3 BE 슬라이스의 보상 구성 요소</h4>

<p>Long-term throughput과 5-percentile throughput을 기준으로 정의됨</p>

<p>$$ \text{RW}<em>{\text{be}}(n) = -(\text{RW}</em>{\text{be}}^{g}(n) + \text{RW}_{\text{be}}^{f}(n))</p>

<ul>
  <li>Long-term throughput 보상</li>
</ul>

\[\text{RW}_{\text{be}}^g(n) =
\begin{cases}
    w_{\text{be}}^g \dfrac{g_{\text{be}}^{\text{req}} - g_{\text{be}}(n)}{g_{\text{be}}^{\text{req}}}, &amp; \text{if } g_{\text{be}}(n) &lt; g_{\text{be}}^{\text{req}} \\[10pt]
    0, &amp; \text{if } g_{\text{be}}(n) \geq g_{\text{be}}^{\text{req}}
\end{cases}\]

<ul>
  <li>5-percentile throughput 보상</li>
</ul>

\[\text{RW}_{\text{be}}^f(n) =
\begin{cases}
    w_{\text{be}}^f \dfrac{f_{\text{be}}^{\text{req}} - f_{\text{be}}(n)}{f_{\text{be}}^{\text{req}}}, &amp; \text{if } f_{\text{be}}(n) &lt; f_{\text{be}}^{\text{req}} \\[10pt]
    0, &amp; \text{if } f_{\text{be}}(n) \geq f_{\text{be}}^{\text{req}}
\end{cases}\]

<ul>
  <li>네트워크가 모든 슬라이스의 QoS 요구를 동시에 충족하지 못하는 경우, eMBB와 URLLC 슬라이스에 높은 우선순위를 부여</li>
  <li>각 메트릭의 가중치는 슬라이스 간 우선순위를 반영하며, 가중치의 합이 1이 되도록 설정하여 보상을 정규화</li>
</ul>

<h3 id="245-baselines">2.4.5 Baselines</h3>

<ol>
  <li>PF(Proportioanl Fairness) 스케쥴링</li>
</ol>

<hr />

<h1 id="3-take-away">3. Take Away</h1>

<ul>
  <li>시뮬레이션 파라미터들을 참고하여 NS-3에서 사용</li>
  <li>10 p.m. - 6 a.m. 까지 사용자를 고정시킨 후 cell on/off를 실행</li>
  <li>예측 알고리즘과 on/off 알고리즘의 결합</li>
</ul>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: Reinforcement learning for intent-aware radio resource scheduling in RAN slicing, dynamically allocating resources across network slices based on service-level intents.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/0115/thumbnail/thumbnail.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/0115/thumbnail/thumbnail.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">A Base Station Sleeping Strategy in Heterogeneous Cellular Networks Based on User Traffic Prediction</title><link href="https://corbinkim.github.io/blog/2025/01/15/a-basestation-sleeping-strategy-in-heterogeneous-cellular-networks-based-on-user-traffic-prediction/" rel="alternate" type="text/html" title="A Base Station Sleeping Strategy in Heterogeneous Cellular Networks Based on User Traffic Prediction" /><published>2025-01-15T00:00:00+00:00</published><updated>2025-01-15T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2025/01/15/a-basestation-sleeping-strategy-in-heterogeneous-cellular-networks-based-on-user-traffic-prediction</id><content type="html" xml:base="https://corbinkim.github.io/blog/2025/01/15/a-basestation-sleeping-strategy-in-heterogeneous-cellular-networks-based-on-user-traffic-prediction/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#abstract" id="markdown-toc-abstract">Abstract</a></li>
  <li><a href="#논문의-구조" id="markdown-toc-논문의-구조">논문의 구조</a></li>
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a>    <ul>
      <li><a href="#11-what-is-the-research-topic-and-why-was-it-chosen" id="markdown-toc-11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</a></li>
      <li><a href="#12-what-are-the-objectives-of-the-study" id="markdown-toc-12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</a></li>
      <li><a href="#13-what-methods-were-used-to-conduct-the-research" id="markdown-toc-13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</a></li>
      <li><a href="#14-what-results-were-obtained" id="markdown-toc-14-what-results-were-obtained">1.4 What results were obtained?</a></li>
      <li><a href="#15-what-is-the-significance-of-the-results" id="markdown-toc-15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</a></li>
    </ul>
  </li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a>    <ul>
      <li><a href="#21-introduction" id="markdown-toc-21-introduction">2.1 Introduction</a></li>
      <li><a href="#22-related-work" id="markdown-toc-22-related-work">2.2 Related Work</a></li>
      <li><a href="#23-system-model" id="markdown-toc-23-system-model">2.3 System Model</a>        <ul>
          <li><a href="#231-네트워크-구성" id="markdown-toc-231-네트워크-구성">2.3.1 네트워크 구성</a></li>
          <li><a href="#232-트래픽-예측-모델" id="markdown-toc-232-트래픽-예측-모델">2.3.2 트래픽 예측 모델</a></li>
          <li><a href="#233-sinr-모델" id="markdown-toc-233-sinr-모델">2.3.3 SINR 모델</a>            <ul>
              <li><a href="#2331-기지국-유형-정의-thetai" id="markdown-toc-2331-기지국-유형-정의-thetai">2.3.3.1 기지국 유형 정의 (\(\theta(i)\))</a></li>
              <li><a href="#2332-경로-손실-모델-l_ik" id="markdown-toc-2332-경로-손실-모델-l_ik">2.3.3.2 경로 손실 모델 (\(L_{i,k}\))</a></li>
              <li><a href="#2333-sinr-계산-s_i-k" id="markdown-toc-2333-sinr-계산-s_i-k">2.3.3.3 SINR 계산 (\(S_{i, k}\))</a></li>
            </ul>
          </li>
          <li><a href="#234-bs-전력-소비-모델" id="markdown-toc-234-bs-전력-소비-모델">2.3.4 BS 전력 소비 모델</a>            <ul>
              <li><a href="#2341-사용자-요구-대역폭-계산" id="markdown-toc-2341-사용자-요구-대역폭-계산">2.3.4.1 사용자 요구 대역폭 계산</a></li>
              <li><a href="#2342-기지국-부하-계산" id="markdown-toc-2342-기지국-부하-계산">2.3.4.2 기지국 부하 계산</a></li>
              <li><a href="#2343-기지국-전력-소비-모델" id="markdown-toc-2343-기지국-전력-소비-모델">2.3.4.3 기지국 전력 소비 모델</a></li>
              <li><a href="#235-blstm-모델" id="markdown-toc-235-blstm-모델">2.3.5 BLSTM 모델</a></li>
            </ul>
          </li>
          <li><a href="#24-문제-정의" id="markdown-toc-24-문제-정의">2.4 문제 정의</a>            <ul>
              <li><a href="#241-변수-정의" id="markdown-toc-241-변수-정의">2.4.1 변수 정의</a></li>
              <li><a href="#242-최적화-목표" id="markdown-toc-242-최적화-목표">2.4.2 최적화 목표</a></li>
            </ul>
          </li>
          <li><a href="#25-proposed-milsf-strategy" id="markdown-toc-25-proposed-milsf-strategy">2.5 Proposed MiLSF Strategy</a>            <ul>
              <li><a href="#251-알고리즘-목표" id="markdown-toc-251-알고리즘-목표">2.5.1 알고리즘 목표</a></li>
              <li><a href="#252-알고리즘-절차" id="markdown-toc-252-알고리즘-절차">2.5.2 알고리즘 절차</a>                <ul>
                  <li><a href="#step-1-초기화" id="markdown-toc-step-1-초기화">Step 1. 초기화</a></li>
                </ul>
              </li>
              <li><a href="#step-2-mibs-부하-정렬" id="markdown-toc-step-2-mibs-부하-정렬">Step 2. MiBS 부하 정렬</a></li>
              <li><a href="#step-3-절전-가능-여부-평가" id="markdown-toc-step-3-절전-가능-여부-평가">Step 3. 절전 가능 여부 평가</a>                <ul>
                  <li><a href="#1-mibs-i의-사용자를-인접한-활성-기지국으로-재배치" id="markdown-toc-1-mibs-i의-사용자를-인접한-활성-기지국으로-재배치">1. MiBS \(i\)의 사용자를 인접한 활성 기지국으로 재배치</a></li>
                  <li><a href="#2-제약-조건-확인" id="markdown-toc-2-제약-조건-확인">2. 제약 조건 확인</a></li>
                  <li><a href="#3-조건이-만족되면-mibs-i를-절전-상태로-전환" id="markdown-toc-3-조건이-만족되면-mibs-i를-절전-상태로-전환">3. 조건이 만족되면 MiBS \(i\)를 절전 상태로 전환</a></li>
                  <li><a href="#4-조건이-만족되지-않으면-mibs-i는-활성-상태-유지" id="markdown-toc-4-조건이-만족되지-않으면-mibs-i는-활성-상태-유지">4. 조건이 만족되지 않으면 MiBS \(i\)는 활성 상태 유지</a></li>
                </ul>
              </li>
              <li><a href="#step-4-반복" id="markdown-toc-step-4-반복">Step 4: 반복</a></li>
              <li><a href="#253-알고리즘-종료-조건" id="markdown-toc-253-알고리즘-종료-조건">2.5.3 알고리즘 종료 조건</a></li>
            </ul>
          </li>
        </ul>
      </li>
      <li><a href="#numerical-results" id="markdown-toc-numerical-results">Numerical Results</a>        <ul>
          <li><a href="#실험-목표" id="markdown-toc-실험-목표">실험 목표</a></li>
          <li><a href="#blstm-트래픽-예측-성능" id="markdown-toc-blstm-트래픽-예측-성능">BLSTM 트래픽 예측 성능</a>            <ul>
              <li><a href="#실험-설정" id="markdown-toc-실험-설정">실험 설정</a></li>
              <li><a href="#결과-요약" id="markdown-toc-결과-요약">결과 요약</a></li>
            </ul>
          </li>
          <li><a href="#milsf-알고리즘-성능" id="markdown-toc-milsf-알고리즘-성능">MiLSF 알고리즘 성능</a>            <ul>
              <li><a href="#실험-설정-1" id="markdown-toc-실험-설정-1">실험 설정</a></li>
              <li><a href="#결과-요약-1" id="markdown-toc-결과-요약-1">결과 요약</a></li>
            </ul>
          </li>
        </ul>
      </li>
      <li><a href="#future-work" id="markdown-toc-future-work">Future Work</a></li>
    </ul>
  </li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="abstract">Abstract</h1>

<p>셀룰러 네트워크의 실시간 트래픽은 시간에 따라 변하며, 주간/야간과 같은 tide 패턴을 보임. 이 특성을 활용하여 네트워크 전반에 분산된 작업 부하를 소수의 기지국으로 통합하여 에너지 소비를 줄일 수 있음. 본 연구는 Macro 기지국과 Micro 기지국으로 구성된 2단계 HetNet을 대상으로 기지국 절전 전략을 제안함. BLSTM(Bidirectional Long Short-Term Memory)을 이용하여 각 사용자의 미래 트래픽을 예측하고, 이를 기반으로 MiBS의 절전 및 User association 재배치를 수행함. Micro 기지국은 항상 활성 상태를 유지하며, 사용자 서비스 품질은 SINR 임계값을 준수하도록 보장함.</p>

<hr />

<h1 id="논문의-구조">논문의 구조</h1>

<ol>
  <li>Introduction</li>
  <li>Related Work</li>
  <li>System Model</li>
  <li>Problem Formulation</li>
  <li>Proposed MiLSF Strategy</li>
  <li>Numerical Results</li>
  <li>Conclusion</li>
</ol>

<hr />

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>SKT 트래픽 예측 논문 레퍼런스 조사</li>
  <li>트래픽 예측을 통한 Cell on/off</li>
</ol>

<h2 id="11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</h2>

<ul>
  <li><strong>연구 주제</strong>: HetNet에서 사용자 트래픽 예측을 활용한 에너지 절감 전략</li>
  <li><strong>선택 이유</strong>
    <ul>
      <li>트래픽의 급격한 증가로 네트워크 에너지 소비가 크게 증가함</li>
      <li>에너지 소비를 줄이는 것은 운영 비용 절감과 온실가스 배출 감소를 위해 매우 중요함</li>
    </ul>
  </li>
</ul>

<h2 id="12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</h2>

<ul>
  <li>낮은 부하 시간대에 기지국 절전 전략을 개발하여 이종 셀룰러 네트워크의 에너지 소비를 줄이는 것</li>
  <li>BLSTM(Bidirectional Long Short-Term Memory) 신경망을 활용하여 사용자별 트래픽 수요를 정확히 예측</li>
  <li>모든 사용자의 QoS를 유지하며, 사전에 정의된 SINR(신호 대 간섭 잡음비) 임계값을 충족하도록 보장</li>
</ul>

<h2 id="13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</h2>

<ul>
  <li>트래픽 예측: BLSTM 신경망을 사용해 과거 트래픽 데이터를 기반으로 사용자별 미래 트래픽을 예측</li>
  <li>네트워크 모델링: HetNet을 Macro BS와 Micro BS로 구성된 2단계 네트워크로 모델링하고, 기지국 위치를 PPP와 MHCPP로 시뮬레이션</li>
  <li>제안된 전략: MiLSF(Minimum Load Sleep First) 전략을 개발하여 부하가 적은 MiBS를 우선적으로 절전 모드로 전환하고, 사용자를 활성 기지국으로 재배치</li>
  <li>시뮬레이션: 다양한 배치 시나리오와 네트워크 조건에서 MiLSF와 기존 절전 전략 4가지를 비교 분석</li>
</ul>

<h2 id="14-what-results-were-obtained">1.4 What results were obtained?</h2>

<ul>
  <li>MiLSF는 기존 4가지 전략(Randomly Sleep, Randomly Reallocate Users, Clsest User Reallocation, Closest Base Station Sleep First)보다 모든 시나리오에서 우수한 에너지 절약 성과를 보임</li>
  <li>MHCPP를 활용한 기지국 배치가 PPP보다 높은 에너지 절약 효과를 가져옴</li>
  <li>중간 수준의 사용자 트래픽 부하와 적당한 SINR 임계값에서 에너지 절약 효과가 극대화됨</li>
  <li>MiLSF는 사용자를 효과적으로 재배치하여 더 많은 MiBS를 절전 모드로 전환할 수 있었음</li>
</ul>

<h2 id="15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</h2>

<ul>
  <li><strong>에너지 효율성</strong>: HetNet에서 에너지 소비를 효과적으로 줄이는 실질적이고 실현 가능한 방법 제시</li>
  <li><strong>서비스 품질 보장</strong>: 에너지 절약과 사용자 QoS 동시에 달성</li>
  <li><strong>연구 기여</strong>: AI 기반 트래픽 예측과 에너지 효율적 네트워크 운영 전략의 통합 가능성을 제시하여 관련 연구를 발전시킴</li>
</ul>

<hr />

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<h2 id="21-introduction">2.1 Introduction</h2>

<ul>
  <li><strong>연구 배경</strong>: 모바일 기기와 데이터 트래픽의 증가로 셀룰러 네트워크 에너지 소비 증가. 기지국이 네트워크 에너지 소비의 80% 이상 차지</li>
  <li><strong>문제점</strong>: 기존 네트워크는 에너지 효율성이 낮으며, 사용자 QoS를 유지하면서 에너지 소비를 줄이는 방법이 필요</li>
  <li><strong>제안 내용</strong>: BLSTM 기반 트래픽 예측을 통해 사용자별 트래픽을 분석하고, MiBS를 절전 상태로 전환하는 MiLSF 전략을 제안</li>
  <li><strong>목표</strong>: 에너지 소비 감소와 서비스 품질 유지</li>
</ul>

<h2 id="22-related-work">2.2 Related Work</h2>

<ul>
  <li><strong>에너지 절감 HeCN 연구</strong>: MiBS를 활용한 네트워크 효율성 개선 방안 연구</li>
  <li><strong>트래픽 예측</strong>: ARIMA, RNN, LSTM 등 다양한 모델 사용. BLSTM은 특히 시간 종속성을 잘 학습하여 높은 예측 정확도를 제공</li>
  <li><strong>기지국 절전 전략</strong>: 사용자 할당 및 네트워크 부하 분산을 고려한 절전 방식 연구. 기존 연구는 BS 트래픽 예측에 초점, 사용자별 요구를 반영하지 못함</li>
</ul>

<h2 id="23-system-model">2.3 System Model</h2>

<h3 id="231-네트워크-구성">2.3.1 네트워크 구성</h3>
<ul>
  <li>구조: 이종 셀룰러 네트워크(HeCN)는 Macro BS(MaBS)와 Micro BS(MiBS)으로 구성
    <ul>
      <li>MaBS: 넓은 영역 커버리지, 높은 송신 전력, 항상 활성 상태 유지</li>
      <li>MiBS: 좁은 영역 커버리지, 낮은 송신 전력, 부하에 따라 절전 가능</li>
    </ul>
  </li>
</ul>

<p align="center">
  <img src="/assets/img/blog/0115/fig/fig.1.1.png" alt="Left Image" width="45%" style="margin-right: 10px;" />
  <img src="/assets/img/blog/0115/fig/fig.1.2.png" alt="Right Image" width="45%" style="margin-left: 10px;" />
</p>

<ul>
  <li>배치 방식:
    <ul>
      <li><strong>PPP(Poisson Point Process)</strong>: BS들이 독립적으로 배치되며, 현실적인 네트워크 배치를 모델링 가능</li>
      <li><strong>MHCPP(Matern Hard-Core Point Process)</strong>: PPP 기반 배치에서 BS 간 간섭을 줄이기 위해 최소 거리 제약 추가</li>
    </ul>
  </li>
</ul>

<h3 id="232-트래픽-예측-모델">2.3.2 트래픽 예측 모델</h3>
<ul>
  <li>BLSTM(Bidirectional Long Short-Term Memory)
    <ul>
      <li>과거 트래픽 데이터를 기반으로 사용자별 미래 트래픽 수요를 예측</li>
      <li>양방향 정보 흐름으로 시간 의존성과 장기적인 패턴 학습 가능</li>
      <li>BLSTM은 높은 예측 정확도를 제공하며, 특히 피크 트래픽에서 RNN 및 ARIMA보다 우수</li>
    </ul>
  </li>
</ul>

<h3 id="233-sinr-모델">2.3.3 SINR 모델</h3>

<table>
  <thead>
    <tr>
      <th><strong>기호</strong></th>
      <th><strong>설명</strong></th>
      <th><strong>단위</strong></th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>\(S_{i,k}\)</td>
      <td>사용자 \(k\)가 기지국 \(i\)에서 수신한 SINR</td>
      <td>dB</td>
    </tr>
    <tr>
      <td>\(p_{\theta(i)}\)</td>
      <td>기지국 \(i\)의 송신 전력 (단일 안테나 기준)</td>
      <td>W</td>
    </tr>
    <tr>
      <td>\(f_{\theta(i)}\)</td>
      <td>기지국 \(i\)의 주파수</td>
      <td>Hz</td>
    </tr>
    <tr>
      <td>\(w_{\theta(i)}\)</td>
      <td>기지국 \(i\)의 대역폭</td>
      <td>Hz</td>
    </tr>
    <tr>
      <td>\(L_{i,k}\)</td>
      <td>사용자 \(k\)와 기지국 \(i\) 간의 경로 손실</td>
      <td>dB</td>
    </tr>
    <tr>
      <td>\(\rho_{i,k}\)</td>
      <td>사용자 \(k\)와 기지국 \(i\) 간의 소규모 페이딩 계수 (Rayleigh fading, 지수분포)</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\eta_0\)</td>
      <td>잡음 스펙트럼 밀도 (Noise spectral density)</td>
      <td>W/Hz</td>
    </tr>
    <tr>
      <td>\(d_{i,k}\)</td>
      <td>사용자 \(k\)와 기지국 \(i\) 간의 거리</td>
      <td>m</td>
    </tr>
    <tr>
      <td>\(c\)</td>
      <td>빛의 속도 (\(3 \times 10^8\))</td>
      <td>m/s</td>
    </tr>
    <tr>
      <td>\(\beta\)</td>
      <td>경로 손실 지수 (Path loss exponent)</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\gamma_0\)</td>
      <td>SINR 임계값</td>
      <td>dB</td>
    </tr>
    <tr>
      <td>\(\Psi_{M}\)</td>
      <td>거대 기지국(MaBS) 집합</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\Psi_{S}\)</td>
      <td>소형 기지국(MiBS) 집합</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\Psi_{K}\)</td>
      <td>사용자 집합</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\theta(i)\)</td>
      <td>기지국 \(i\)의 유형 (MaBS: 1, MiBS: 2)</td>
      <td>-</td>
    </tr>
  </tbody>
</table>

<h4 id="2331-기지국-유형-정의-thetai">2.3.3.1 기지국 유형 정의 (\(\theta(i)\))</h4>

<p>기지국 \(i\)의 유형을 나타내는 이진 값:</p>

\[\theta(i) =
\begin{cases} 
1, &amp; \text{if } i \in \Psi_{M}, \\
2, &amp; \text{if } i \in \Psi_{S}.
\end{cases}\]

<h4 id="2332-경로-손실-모델-l_ik">2.3.3.2 경로 손실 모델 (\(L_{i,k}\))</h4>

<p>사용자 \(k\)와 기지국 \(i\) 간의 경로 손실:</p>

\[L_{i,k} = 20 \log \left( \frac{4 \pi f_{\theta(i)}^c}{c} \right) 
+ 10 \beta \log(d_{i,k}),
\quad \forall k \in \Psi_{K}, \ i \in \Psi_{M} \cup \Psi_{S}.\]

<h4 id="2333-sinr-계산-s_i-k">2.3.3.3 SINR 계산 (\(S_{i, k}\))</h4>

<p>사용자 \(k\)가 기지국 \(i\)에서 수신한 SINR:</p>

\[S_{i,k} = \frac{p_{\theta(i)} \rho_{i,k} L_{i,k}^{-1}}
{\sum_{j \in \Psi_{M} \cup \Psi_{S} \setminus \{i\}} 
p_{\theta(j)} \rho_{j,k} L_{j,k}^{-1} 
+ \eta_0 w_{\theta(i)}},
\quad \forall k \in \Psi_{K}, \ i \in \Psi_{M} \cup \Psi_{S}.\]

<h3 id="234-bs-전력-소비-모델">2.3.4 BS 전력 소비 모델</h3>

<table>
  <thead>
    <tr>
      <th><strong>기호</strong></th>
      <th><strong>설명</strong></th>
      <th><strong>단위</strong></th>
    </tr>
  </thead>
  <tbody>
    <tr>
      <td>\(\mu_i(t)\)</td>
      <td>시간 \(t\)에서 기지국 \(i\)의 부하 비율</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(\Psi_i^K(t)\)</td>
      <td>시간 \(t\)에 기지국 \(i\)에 연결된 사용자 집합</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(P_{\theta(i)}^\alpha\)</td>
      <td>기지국 활성 상태 전력 소비</td>
      <td>W</td>
    </tr>
    <tr>
      <td>\(\alpha_{\theta(i)}\)</td>
      <td>기지국 \(i\)의 송신 안테나 개수 (MaBS: \(\alpha_1\), MiBS: \(\alpha_2\))</td>
      <td>-</td>
    </tr>
    <tr>
      <td>\(p_{\theta(i)}^{c}\)</td>
      <td>기지국 \(i\)의 회로 전력 소비(절전 상태)</td>
      <td>W</td>
    </tr>
  </tbody>
</table>

<h4 id="2341-사용자-요구-대역폭-계산">2.3.4.1 사용자 요구 대역폭 계산</h4>

<p>사용자 \(k\)가 기지국 \(i\)에 연결되었을 때, 주어진 시간 \(t\)에서 SINR이 임계값 \(\gamma_{0}\) 이상이면, Shannon-Hartley 이론에 따라 요구 대역폭은 아래와 같이 계산</p>

\[b_{i,k}(t) = \frac{r_k(t)}{\log_2 \left( 1 + S_{i,k} \right)}, \forall S_{i,k} \geq \gamma_0\]

<h4 id="2342-기지국-부하-계산">2.3.4.2 기지국 부하 계산</h4>

<p>기지국 \(i\)에 연결된 사용자들의 요구 대역폭으로부터 부하 비율을 계산할 수 있음. 시간 \(t\)에서 기지국 \(i\)의 부하는 다음과 같이 정의됨</p>

\[\mu_i(t) = \sum_{k \in \Psi_K^i(t)}\frac{b_{i,k}(t)}{w_{\theta(i)}}\]

<h4 id="2343-기지국-전력-소비-모델">2.3.4.3 기지국 전력 소비 모델</h4>

<p>활성 상태에서의 기지국 \(i\)의 전력 소비는 <strong>송신 전력</strong>과 <strong>회로 전력</strong>으로 나뉨</p>

\[P_{\theta(i)}^{\alpha}(t) = \alpha_{\theta(i)}p_{\theta(i)}\mu_i(t) + p_{\theta(i)}^c\]

<h4 id="235-blstm-모델">2.3.5 BLSTM 모델</h4>

<p><img src="/assets/img/blog/0115/fig/BLSTM.png" alt="Fig 1" /></p>

<ul>
  <li>BLSTM(Bidirectional Long Short-Term Memory)
    <ul>
      <li>시계열 데이터를 양방향으로 학습하는 RNN(Recurrent Neural Network)의 한 종류</li>
      <li>과거와 미래 정보를 모두 활용하여 더 정확한 예측 수행</li>
      <li>LSTM의 구조를 확장하여 Long-term dependencies와 패턴을 효과적으로 학습함</li>
    </ul>
  </li>
  <li>사용 목적
    <ul>
      <li>네트워크 트래픽의 시간적 변화 패턴을 예측</li>
      <li>각 사용자별 미래 트래픽을 정확히 예측하여 기지국 절전 저략에 활용</li>
    </ul>
  </li>
</ul>

<p>BLSTM 모델은 두 개의 LSTM 네트워크(Forward와 Backward)로 구성됨</p>

<ul>
  <li>Forward LSTM: 입력 데이터를 시간 순서대로 처리하여 패턴을 학습</li>
  <li>Backward LSTM: 입력 데이터를 시간 역순으로 처리하여 추가적인 정보를 학습</li>
  <li>두 결과를 병합하여 최종 출력값을 생성</li>
</ul>

<h3 id="24-문제-정의">2.4 문제 정의</h3>

<ul>
  <li><strong>목표</strong>: MiBS를 선택적으로 절전 상태로 전환해 네트워크 에너지 소비를 최소화</li>
  <li><strong>제약조건</strong>:
    <ul>
      <li>모든 사용자의 SINR이 임계값 이상이어야 함</li>
      <li>각 사용자의 트래픽 요구량을 충족해야 함</li>
      <li>기지국은 과부하 상태가 되어서는 안됨</li>
    </ul>
  </li>
  <li><strong>최적화 문제</strong>: 에너지 소비를 최소화하는 MiBS 절전 전략 설계</li>
</ul>

<h4 id="241-변수-정의">2.4.1 변수 정의</h4>

<ul>
  <li>
    <dl>
      <dt>Action Vector(\(a_t^{\phi}(t)\))</dt>
      <dd>기지국의 활성 상태를 나타내는 벡터</dd>
    </dl>

    <ul>
      <li>\(a_{\phi}^{i}(t) = 1\): 시간 \(t\)에 기지국 \(i\)가 활성 상태</li>
      <li>\(a_{\phi}^{i}(t) = 0\): 시간 \(t\)에 기지국 \(i\)가 절전 상태</li>
    </ul>
  </li>
  <li>활성 및 절전 기지국 집합
    <ul>
      <li>\(\mathcal{L}^{active}(t) = \{i \vert a_i^{\phi}(t = 1)\}\): 시간 \(t\)에 활성 상태인 기지국 집합</li>
      <li>\(\mathcal{L}^{active}(t) = \{i \vert a_i^{\phi}(t = 0)\}\): 시간 \(t\)에 절전 상태인 기지국 집합</li>
    </ul>
  </li>
  <li>최대 트래픽 요구량(\(R_k\))</li>
</ul>

\[R_k = \max_{t \in [T_1, T_2]} r_k(t), \quad \forall k \in \Psi_K.\]

<h4 id="242-최적화-목표">2.4.2 최적화 목표</h4>

<ul>
  <li>\([T_1, T_2]\) 동안 두 계층 HeCN의 전체 에너지 소비를 최소화하는 것이 최적화 문제의 목표</li>
  <li>총 전력 소비: 시간 \(t\)에 모든 기지국의 총 전력 소비는 다음과 같이 정의됨</li>
</ul>

\[\min_{\phi} \int_{T_1}^{T_2}
\sum_{i \in \Psi_M \cup \Psi_S}
\left( a_i^\phi(t) P^\alpha_{\theta(i)}(t)
+	\left( 1 - a_i^\phi(t) \right) P_{\theta(i)}^s \right) dt,\]

<h3 id="25-proposed-milsf-strategy">2.5 Proposed MiLSF Strategy</h3>

<p>Minimum Load Sleep First Algorithm(MiLSF)는 부하가 적은 MiBS부터 절전 상태로 전환하여 네트워크의 에너지 소비를 줄이는 전략임</p>

<h4 id="251-알고리즘-목표">2.5.1 알고리즘 목표</h4>

<ul>
  <li>네트워크 에너지 소비를 줄이기 위해 부하가 낮은 MiBS를 절전 상태로 전환</li>
  <li>사용자의 QoS를 유지하면서 기지국 부하를 재분배</li>
</ul>

<h4 id="252-알고리즘-절차">2.5.2 알고리즘 절차</h4>

<p><img src="/assets/img/blog/0115/fig/MiLSF.png" alt="Fig 5" /></p>

<h5 id="step-1-초기화">Step 1. 초기화</h5>

<ol>
  <li>활성 상태의 모든 MiBS 집합을 정의</li>
</ol>

\[\mathcal{I}_{\text{active}}(t) = { i \mid a_i^\phi(t) = 1, i \in \Psi_S }\]

<ol>
  <li>절전 상태 기지국 집합 초기화</li>
</ol>

\[\mathcal{I}_{\text{sleep}}(t) = \emptyset\]

<h4 id="step-2-mibs-부하-정렬">Step 2. MiBS 부하 정렬</h4>

<p>활성 상태 MiBS의 부하를 기준으로 오름차순 정렬</p>

\[i_1, i_2, \ldots, i_N \in \mathcal{I}{\text{active}}(t), \quad \text{where } \mu{i_1}(t) \leq \mu_{i_2}(t) \leq \cdots \leq \mu_{i_N}(t)\]

<h4 id="step-3-절전-가능-여부-평가">Step 3. 절전 가능 여부 평가</h4>

<p>부하가 가장 낮은 MiBS부터 절전 가능 여부를 평가</p>

<h5 id="1-mibs-i의-사용자를-인접한-활성-기지국으로-재배치">1. MiBS \(i\)의 사용자를 인접한 활성 기지국으로 재배치</h5>

\[\mu_j(t) = \mu_j(t) + \sum_{k \in \Psi_i^K(t)} \frac{b_{j,k}(t)}{w_{\theta(j)}},
\quad j \in \mathcal{I}_{\text{active}}(t) \setminus {i}.\]

<h5 id="2-제약-조건-확인">2. 제약 조건 확인</h5>

<ul>
  <li>모든 사용자의 SINR: \(S_{j,k} \geq \gamma_0, \quad \forall k \in \Psi_i^K(t), \quad \forall j \in \mathcal{I}_{\text{active}}(t)\)</li>
  <li>기지국 부하: \(\mu_j(t) \leq 1, \quad \forall j \in \mathcal{I}_{\text{active}}(t)\)</li>
</ul>

<h5 id="3-조건이-만족되면-mibs-i를-절전-상태로-전환">3. 조건이 만족되면 MiBS \(i\)를 절전 상태로 전환</h5>

\[a_i^\phi(t) = 0, \quad \mathcal{I}{\text{sleep}}(t) = \mathcal{I}{\text{sleep}}(t) \cup {i}\]

<h5 id="4-조건이-만족되지-않으면-mibs-i는-활성-상태-유지">4. 조건이 만족되지 않으면 MiBS \(i\)는 활성 상태 유지</h5>

<h4 id="step-4-반복">Step 4: 반복</h4>

<p>절전 가능 여부를 평가한 MiBS를 제외한 나머지 기지국으로 돌아가 Step 3을 반복, 모든 MiBS를 평가할 때까지 반복함</p>

<h4 id="253-알고리즘-종료-조건">2.5.3 알고리즘 종료 조건</h4>
<ul>
  <li>모든 MiBS를 평가한 후 더 이상 절전 상태로 전환할 수 없는 경우 알고리즘 종료</li>
  <li>절전 상태 기지국 집합 \(\mathcal{J}_{sleep}(t)\)과 활성 상태 기지국 집합 \(\mathcal{J}_{active}(t)\) 반환</li>
</ul>

<h2 id="numerical-results">Numerical Results</h2>

<h3 id="실험-목표">실험 목표</h3>

<ul>
  <li>BLSTM 기반 트래픽 예측 모델과 MiLSF 알고리즘의 성능 평가</li>
  <li>기존 절전 전략과의 비교를 통해 MiLSF의 에너지 효율성 및 QoS 유지 능력을 검증</li>
</ul>

<h3 id="blstm-트래픽-예측-성능">BLSTM 트래픽 예측 성능</h3>

<h5 id="실험-설정">실험 설정</h5>
<ul>
  <li>다양한 트래픽 패턴에서 BLSTM의 예측 성능 평가</li>
  <li>비교 모델: RNN, ARIMA</li>
</ul>

<p><img src="/assets/img/blog/0115/fig/fig.7.png" alt="Fig 7" />
<img src="/assets/img/blog/0115/fig/fig.8.png" alt="Fig 8" />
<img src="/assets/img/blog/0115/fig/fig.9.png" alt="Fig 9" /></p>

<h5 id="결과-요약">결과 요약</h5>

<p><img src="/assets/img/blog/0115/fig/MAE.png" alt="Fig 6" /></p>

<p>예측 정확도:</p>
<ul>
  <li>BLSTM은 RNN 및 ARIMA 보다 Mean Absolute Error(MAE)와 Root Mean Square Error(RMSE)에서 더 낮은 값을 기록</li>
  <li>특히 트래픽 피크 시간에서 예측 성능이 우수</li>
</ul>

<p>시계열 데이터의 학습:</p>
<ul>
  <li>BLSTM은 양방향 학습을 통해 장기적이고 복잡한 트래픽 변화를 더 잘 포착
을</li>
</ul>

<h3 id="milsf-알고리즘-성능">MiLSF 알고리즘 성능</h3>

<h5 id="실험-설정-1">실험 설정</h5>

<p><img src="/assets/img/blog/0115/fig/table.1.png" alt="Table 1" /></p>

<ul>
  <li>다양한 네트워크 부하와 배치 조건에서 MiLSF와 기존 절전 전략의 비교. 추가적으로 low-load 기간(10:00 p.m. - 6:00 a.m.)에는 user들의 움직임이 없는 것으로 고려하였음.</li>
</ul>

<p>\(\rightarrow\) 결정한 MiBS들을 10:00 p.m. - 6:00 a.m.에 sleep 모드로 전환
\(\rightarrow\) 이 시간대 sleep 할 최적의 MiBS들을 고르는 것이 중요</p>

<ul>
  <li>비교 전략
    <ul>
      <li>Randomly Sleep(RS): 임의로 기지국을 절전 모드로 전환</li>
      <li>CUR(Closest User Reallocation): 사용자 재배치를 통해 가까운 기지국 연결</li>
      <li>CBSSF(Closest Base Station Sleep First): 가장 가까운 기지국부터 절전</li>
    </ul>
  </li>
</ul>

<h4 id="결과-요약-1">결과 요약</h4>

<ul>
  <li>에너지 절감
    <ul>
      <li>MiLSF가 RS, CUR, CBSSF보다 에너지 소비를 크게 줄임</li>
      <li>특히 네트워크 부하가 낮은 시나리오에서 에너지 절감률이 가장 높음</li>
    </ul>
  </li>
  <li>기지국 배치의 영향
    <ul>
      <li>PPP 배치: MiLSF가 효율적으로 작동하며, 부하 분산 효과를 극대화</li>
      <li>MHCPP 배치: 간섭이 줄어들며, MiLSF의 에너지 절감률이 더욱 향상</li>
    </ul>
  </li>
  <li>사용자 수의 영향
    <ul>
      <li>사용자 수가 증가할수록 MiLSF는 에너지 절감률을 유지하면서 QoS를 만족</li>
      <li>기존 전략은 사용자 증가 시 QoS가 약화되는 경향을 보임</li>
    </ul>
  </li>
</ul>

<p><img src="/assets/img/blog/0115/fig/fig.10.png" alt="Fig 10" /></p>

<ul>
  <li>SINR 임계값 변화
    <ul>
      <li>높은 SINR 임계값에서도 MiLSF는 QoS를 유지하며, 에너지 절감 효과를 제공</li>
    </ul>
  </li>
</ul>

<p><img src="/assets/img/blog/0115/fig/fig.10.png" alt="Fig 10" /></p>

<ul>
  <li>절전 기지국 개수 변화
    <ul>
      <li>네트워크 부하가 낮을수록 더 많은 MiBS를 절전 상태로 전환 가능</li>
      <li>MiLSF는 절전 가능한 MiBS의 개수를 최대화하면서 QoS를 유지</li>
      <li>네트워크 부하가 증가하면 MiBS를 활성 상태로 유지해야 하므로 절전 기지국 개수 감소</li>
    </ul>
  </li>
</ul>

<p><img src="/assets/img/blog/0115/fig/fig.11.png" alt="Fig 11" /></p>

<h2 id="future-work">Future Work</h2>

<ul>
  <li>빔포밍, 전력 제어와 같은 간섭 완화 기법 통합</li>
  <li>동적으로 변화하는 네트워크 환경에서의 적용</li>
  <li>트래픽 예측의 개선</li>
</ul>

<hr />

<h1 id="3-take-away">3. Take Away</h1>

<ul>
  <li>시뮬레이션 파라미터들을 참고하여 NS-3에서 사용</li>
  <li>10 p.m. - 6 a.m. 까지 사용자를 고정시킨 후 cell on/off를 실행</li>
  <li>예측 알고리즘과 on/off 알고리즘의 결합</li>
</ul>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: BLSTM-based user traffic prediction for base station sleeping in HetNets, balancing energy savings with QoS by maintaining SINR thresholds.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/0115/thumbnail/thumbnail.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/0115/thumbnail/thumbnail.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">The Prediction Analysis of Cellular Radio Access Network Traffic - From Entropy Theory to Networking Practice</title><link href="https://corbinkim.github.io/blog/2025/01/14/the-prediction-analysis-of-cellular-radio-access-network-traffic-from-entropy-theory-to-networking-practice/" rel="alternate" type="text/html" title="The Prediction Analysis of Cellular Radio Access Network Traffic - From Entropy Theory to Networking Practice" /><published>2025-01-14T00:00:00+00:00</published><updated>2025-01-14T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2025/01/14/the-prediction-analysis-of-cellular-radio-access-network-traffic-from-entropy-theory-to-networking-practice</id><content type="html" xml:base="https://corbinkim.github.io/blog/2025/01/14/the-prediction-analysis-of-cellular-radio-access-network-traffic-from-entropy-theory-to-networking-practice/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#논문-개요-분석" id="markdown-toc-논문-개요-분석">논문 개요 분석</a>    <ul>
      <li><a href="#introduction" id="markdown-toc-introduction">Introduction</a></li>
      <li><a href="#traffic-prediction-theoretical-analysis-and-practical-performance" id="markdown-toc-traffic-prediction-theoretical-analysis-and-practical-performance">Traffic Prediction: Theoretical ANalysis and Practical Performance</a>        <ul>
          <li><a href="#prediction-dataset-description-and-analysis-methodology" id="markdown-toc-prediction-dataset-description-and-analysis-methodology">Prediction Dataset Description and Analysis Methodology</a></li>
          <li><a href="#prediction-analysis-to-what-extent-is-the-prior-information-required" id="markdown-toc-prediction-analysis-to-what-extent-is-the-prior-information-required">Prediction Analysis: To What Extent Is the Prior Information Required?</a></li>
          <li><a href="#prediction-performance-the-current-state-of-research" id="markdown-toc-prediction-performance-the-current-state-of-research">Prediction Performance: The Current State of Research</a></li>
        </ul>
      </li>
      <li><a href="#traffic-prediction-and-future-network-architecture-directions-and-applications" id="markdown-toc-traffic-prediction-and-future-network-architecture-directions-and-applications">Traffic Prediction and Future Network Architecture: Directions and Applications</a>        <ul>
          <li><a href="#brief-description-of-the-traffic-based-sdran-architecture" id="markdown-toc-brief-description-of-the-traffic-based-sdran-architecture">Brief Description of the Traffic-Based SDRAN Architecture</a></li>
          <li><a href="#large-scale-traffic-aware-resource-management" id="markdown-toc-large-scale-traffic-aware-resource-management">Large-Scale Traffic-Aware Resource Management</a></li>
          <li><a href="#small-scale-flow-centric-resource-allocation" id="markdown-toc-small-scale-flow-centric-resource-allocation">Small-Scale Flow-Centric Resource Allocation</a></li>
        </ul>
      </li>
      <li><a href="#conclusion" id="markdown-toc-conclusion">Conclusion</a></li>
    </ul>
  </li>
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a>    <ul>
      <li><a href="#11-what-is-the-research-topic-and-why-was-it-chosen" id="markdown-toc-11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</a></li>
      <li><a href="#12-what-are-the-objectives-of-the-study" id="markdown-toc-12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</a></li>
      <li><a href="#13-what-methods-were-used-to-conduct-the-research" id="markdown-toc-13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</a></li>
      <li><a href="#14-what-results-were-obtained" id="markdown-toc-14-what-results-were-obtained">1.4 What results were obtained?</a></li>
      <li><a href="#15-what-is-the-significance-of-the-results" id="markdown-toc-15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</a></li>
    </ul>
  </li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a>    <ul>
      <li><a href="#21-데이터셋-및-분석-방법론" id="markdown-toc-21-데이터셋-및-분석-방법론">2.1 데이터셋 및 분석 방법론</a>        <ul>
          <li><a href="#조건부-엔트로피conditional-entropy" id="markdown-toc-조건부-엔트로피conditional-entropy">조건부 엔트로피(Conditional Entropy)</a></li>
        </ul>
      </li>
      <li><a href="#22-예측-분석" id="markdown-toc-22-예측-분석">2.2 예측 분석</a>        <ul>
          <li><a href="#221-시간적-연관성-temporal-correlation" id="markdown-toc-221-시간적-연관성-temporal-correlation">2.2.1 시간적 연관성 (Temporal Correlation)</a></li>
          <li><a href="#222-공간적-연관성-spatial-correlation" id="markdown-toc-222-공간적-연관성-spatial-correlation">2.2.2 공간적 연관성 (Spatial Correlation)</a></li>
          <li><a href="#223-서비스-간-연관성-inter-service-correlation" id="markdown-toc-223-서비스-간-연관성-inter-service-correlation">2.2.3 서비스 간 연관성 (Inter-Service Correlation)</a></li>
        </ul>
      </li>
      <li><a href="#23-traffic-prediction-and-future-network-architecture" id="markdown-toc-23-traffic-prediction-and-future-network-architecture">2.3 Traffic Prediction and Future Network Architecture</a>        <ul>
          <li><a href="#231-traffic-based-sdran-architecture" id="markdown-toc-231-traffic-based-sdran-architecture">2.3.1 Traffic-Based SDRAN Architecture</a></li>
          <li><a href="#232-large-scale-traffic-aware-resource-management" id="markdown-toc-232-large-scale-traffic-aware-resource-management">2.3.2 Large-Scale Traffic-Aware Resource Management</a></li>
          <li><a href="#233-small-scale-flow-centric-resource-allocation" id="markdown-toc-233-small-scale-flow-centric-resource-allocation">2.3.3 Small-Scale Flow-Centric Resource Allocation</a></li>
        </ul>
      </li>
      <li><a href="#24-conclusion" id="markdown-toc-24-conclusion">2.4 Conclusion</a></li>
    </ul>
  </li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="논문-개요-분석">논문 개요 분석</h1>

<h2 id="introduction">Introduction</h2>

<ul>
  <li>본 논문의 연구 배경과 연구 필요성 언급</li>
  <li>기존 연구의 한계점 지적 및 본 논문의 목표와 연구 범위 제시</li>
</ul>

<h2 id="traffic-prediction-theoretical-analysis-and-practical-performance">Traffic Prediction: Theoretical ANalysis and Practical Performance</h2>

<h3 id="prediction-dataset-description-and-analysis-methodology">Prediction Dataset Description and Analysis Methodology</h3>
<ul>
  <li>데이터 수집 과정 및 분석 방법론</li>
  <li>데이터 전처리 및 트래픽 엔트로피 계산</li>
</ul>

<h3 id="prediction-analysis-to-what-extent-is-the-prior-information-required">Prediction Analysis: To What Extent Is the Prior Information Required?</h3>
<ul>
  <li>트래픽 예측에 필요한 사전 정보의 범위를 논의</li>
  <li>시간적, 공간적, 서비스 간 상호작용을 통한 예측 가능성 분석</li>
</ul>

<h3 id="prediction-performance-the-current-state-of-research">Prediction Performance: The Current State of Research</h3>
<ul>
  <li>트래픽 예측 성능을 평가하고, 현재 연구 방법론의 한계를 제시</li>
</ul>

<h2 id="traffic-prediction-and-future-network-architecture-directions-and-applications">Traffic Prediction and Future Network Architecture: Directions and Applications</h2>

<h3 id="brief-description-of-the-traffic-based-sdran-architecture">Brief Description of the Traffic-Based SDRAN Architecture</h3>
<ul>
  <li>SDRAN 구조 소개</li>
</ul>

<h3 id="large-scale-traffic-aware-resource-management">Large-Scale Traffic-Aware Resource Management</h3>
<ul>
  <li>대규모 트래픽 예측 기반 자원 관리 기법 논의</li>
</ul>

<h3 id="small-scale-flow-centric-resource-allocation">Small-Scale Flow-Centric Resource Allocation</h3>
<ul>
  <li>세부 흐름 중심의 자원 할당 방안을 설명</li>
</ul>

<h2 id="conclusion">Conclusion</h2>
<ul>
  <li>논문의 주요 결론과 향후 연구 방향 제시</li>
</ul>

<hr />

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>SKT 트래픽 예측 논문 레퍼런스 조사</li>
  <li>트래픽 시/공간 관계 조사</li>
</ol>

<h2 id="11-what-is-the-research-topic-and-why-was-it-chosen">1.1 What is the research topic and why was it chosen?</h2>

<ul>
  <li><strong>연구 주제</strong>: 셀룰러 RAN 트래픽 예측 가능성을 이론적으로 분석하고, 두를 활용한 네트워크 설계 방법 제안</li>
  <li><strong>선택 이유</strong>:
    <ul>
      <li>셀룰러 RAN 트래픽이 기존 음성 중심에서 데이터 중심으로 변화했기 때문</li>
      <li>셀룰러 RAN은 자원 제한, 사용자 이동성으로 인해 기존 연구를 그대로 적용하기 어려움</li>
      <li>에너지 효율적인 네트워크 설계와 효과적인 자원 관리를 위해 트래픽 예측의 필요성 대두</li>
    </ul>
  </li>
</ul>

<h2 id="12-what-are-the-objectives-of-the-study">1.2 What are the objectives of the study?</h2>

<ul>
  <li>엔트로피 이론을 활용해 셀룰러 RAN 트래픽의 시간적, 공간적, 서비스 간 예측 가능성을 분석</li>
  <li>예측 결과를 바탕으로 에너지 효율적이고 트래픽 기반의 SD-RAN 설계</li>
  <li>트래픽 예측을 통해 네트워크 자원을 효율적으로 관리하고 사용자 경험을 개선</li>
</ul>

<h2 id="13-what-methods-were-used-to-conduct-the-research">1.3 What methods were used to conduct the research?</h2>
<ul>
  <li>데이터셋: 차이나 모바일에서 7000개 기지국의 1개월간 트래픽 데이터 수집</li>
  <li>분석 방법: 엔트로피 이론을 기반으로 데이터의 시간적, 공간적 특성을 정량화하여 불확실성을 분석</li>
  <li>추가적 접근: 서비스 간 연관성과 시간, 공간적 정보의 조합이 트래픽 예측에 미치는 영향을 평가</li>
</ul>

<h2 id="14-what-results-were-obtained">1.4 What results were obtained?</h2>

<ul>
  <li>엔트로피 분석 결과
    <ul>
      <li>시간적 정보는 예측에 가장 큰 영향을 미치며, 과거 데이터가 많을수록 정확도가 향상</li>
      <li>공간적 정보는 추가적인 예측 개선을 지원하지만, 시간적 정보보다 덜 중요함</li>
      <li>음성 및 문자 서비스 간 상관관계는 높으나, 데이터 서비스는 상대적으로 독립적임</li>
    </ul>
  </li>
  <li>트래픽 기반 SD-RAN 설계
    <ul>
      <li>제어 평면과 데이터 평면의 분리를 통해 네트워크 자원 관리의 유연성을 제공</li>
      <li>대규모 자원 관리와 소규모 플로우 중심 자원 할당 가능</li>
    </ul>
  </li>
</ul>

<h2 id="15-what-is-the-significance-of-the-results">1.5 What is the significance of the results?</h2>
<ul>
  <li>셀룰러 RAN 트래픽은 시간적, 공간적, 서비스 간 연관성을 활용해 효과적으로 예측할 수 있음을 증명</li>
  <li>트래픽 기반 예측은 에너지 효율적인 네트워크 설계 및 운영에 핵심 역할을 수행</li>
  <li>SD-RAN은 미래 네트워크 아키텍쳐의 중요한 방향성으로, 효율적인 자원 배분과 사용자 경험 향상을 가능하게 함</li>
</ul>

<hr />

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<p>논문의 목표는 다음과 같음</p>

<ol>
  <li>엔트로피 이론을 활용하여 셀룰러 RAN 트래픽의 시간적, 공간적, 서비스 간 연관성을 분석</li>
  <li>예측 결과를 기반으로 효율적인 SD-RAN 설계를 제안</li>
</ol>

<h2 id="21-데이터셋-및-분석-방법론">2.1 데이터셋 및 분석 방법론</h2>
<ul>
  <li><strong>데이터셋</strong>: 약 7000개의 기지국에서 수집한 1개월 분량의 트래픽 데이터 사용(음성, 문자, 데이터 서비스 포함)</li>
  <li><strong>전처리</strong>: 데이터를 시간 간격으로 정량화하여 각 셀에서 트래픽 변화 분석</li>
</ul>

<p>엔트로피는 Shannon이 불확실성을 측정하기 위해 정의한 값으로, 트래픽의 예측 가능성을 분석하는 데 사용됨</p>

<p>엔트로피의 정의는 다음과 같음</p>

\[H(X) = -\sum_{i=1}^{n} p(x_i) \log_2 p(x_i) \tag{1}\]

<ul>
  <li>\(p(x_i)\): 특정 트래픽 수준 \(x_i\)가 발생할 확률</li>
</ul>

<div align="center">
  <img src="/assets/img/blog/0114/fig/fig_1.png" alt="Fig. 1" />
</div>

<p>Fig 1은 두 개의 셀에서 음성, 문자, 데이터 트래픽의 엔트로피 값을 보여줌</p>
<ul>
  <li><strong>음성 트래픽</strong>: 가장 큰 변동성을 보이며, 엔트로피 값이 높음</li>
  <li><strong>데이터 트래픽</strong>: 가장 안정적이며, 엔트로피 값이 낮음</li>
  <li>서비스 유형에 따라 트래픽 특성이 달라짐을 나타냄</li>
</ul>

<div align="center">
  <img src="/assets/img/blog/0114/fig/table_1.png" alt="Table. 1" />
</div>

<h4 id="조건부-엔트로피conditional-entropy">조건부 엔트로피(Conditional Entropy)</h4>

<p>트래픽 예측은 과거 데이터를 기반으로 미래 트래픽의 불확실성을 줄이는 것을 목표로 함. 이를 위해 <strong>조건부 엔트로피</strong>를 계산</p>

\[\begin{align}
H(X|Y) &amp;= \sum_{i,j} p(x_i, y_j) \log \frac{p(y_j)}{p(x_i, y_j)} \notag \\
       &amp;= H(X, Y) - H(Y) \tag{2}
\end{align}\]

<p align="center">
  <img src="/assets/img/blog/0114/fig/fig_3.png" alt="Left Image" width="45%" style="margin-right: 10px;" />
  <img src="/assets/img/blog/0114/fig/fig_2.png" alt="Right Image" width="45%" style="margin-left: 10px;" />
</p>

<h2 id="22-예측-분석">2.2 예측 분석</h2>

<h3 id="221-시간적-연관성-temporal-correlation">2.2.1 시간적 연관성 (Temporal Correlation)</h3>

<p>과거 트래픽 데이터는 현재 및 미래 트래픽 예측에 중요한 역할을 함</p>
<ul>
  <li>Random 엔트로피(사전 정보 X): \(H(X)\) = 2.1492 bits(음성 트래픽)</li>
  <li>2시간 전 데이터를 추가로 사용했을 때: Conditional 엔트로피 \(H(X \vert T)\) = 0.5880 bits로 감소</li>
  <li>이는 불확실성이 약 73% 감소했음을 의미하며, 더 긴 기간의 데이터를 사용할수록 불확실성은 더욱 감소</li>
</ul>

<h3 id="222-공간적-연관성-spatial-correlation">2.2.2 공간적 연관성 (Spatial Correlation)</h3>

<p>인접한 셀에서의 트래픽 데이터는 예측 정확도를 개선할 수 있음</p>
<ul>
  <li>3개의 인접 셀 정보를 사용할 경우 \(H(X \vert S)\) = 0.9043</li>
  <li>공간적 정보는 시간적 정보보다 덜 중요한 역할을 함</li>
</ul>

<h3 id="223-서비스-간-연관성-inter-service-correlation">2.2.3 서비스 간 연관성 (Inter-Service Correlation)</h3>

<p>다른 서비스 유형 간의 연관성을 활용</p>
<ul>
  <li>문자 트래픽은 음성 트래픽 예측에 유용하며, 조건부 엔트로피 \(H(X \vert Text)\) = 1.3966</li>
  <li>데이터 트래픽은 독립적인 특성이 강해 다른 서비스의 정보를 활용하기 어려움</li>
</ul>

<h2 id="23-traffic-prediction-and-future-network-architecture">2.3 Traffic Prediction and Future Network Architecture</h2>

<h3 id="231-traffic-based-sdran-architecture">2.3.1 Traffic-Based SDRAN Architecture</h3>

<div align="center">
  <img src="/assets/img/blog/0114/fig/fig_4.png" alt="Fig. 4" />
</div>

<ul>
  <li>제어 평면과 데이터 평면을 분리하여 네트워크 관리를 유연화</li>
  <li>구성 요소
    <ul>
      <li>트래픽 예측 엔진: 실시간 트래픽 변화 감지</li>
      <li>정책 엔진: 자원 할당 및 네트워크 상태 조정</li>
      <li>API: 외부 어플리케이션과 상호작용</li>
    </ul>
  </li>
</ul>

<h3 id="232-large-scale-traffic-aware-resource-management">2.3.2 Large-Scale Traffic-Aware Resource Management</h3>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_5.png" alt="Fig 5" />
</div>

<ul>
  <li>과거 데이터(20-34시간)를 더 많이 사용할수록 RMSE 감소</li>
  <li>음성 트래픽의 RMSE가 데이터 트래픽보다 더 급격히 감소하여 더 쉽게 예측 가능</li>
</ul>

<h3 id="233-small-scale-flow-centric-resource-allocation">2.3.3 Small-Scale Flow-Centric Resource Allocation</h3>

<ul>
  <li>애플리케잉션 요구 사항에 맞춰 트래픽을 세분화하여 자원 배정
    <ul>
      <li>HTTP 브라우징: WiFi 오프로딩 가능</li>
      <li>실시간 스트리밍: 대역폭 우선 할당</li>
    </ul>
  </li>
</ul>

<h2 id="24-conclusion">2.4 Conclusion</h2>

<ul>
  <li>시간적 연관성이 예측 정확도에 가장 중요한 요소</li>
  <li>공간적 연관성과 서비스 간 연관성도 보조적인 기여를 함</li>
  <li>SDRAN은 에너지 절약 및 효율적 네트워크 자원 관리를 위한 중요한 방향성 제시</li>
</ul>

<hr />

<h1 id="3-take-away">3. Take Away</h1>
<ul>
  <li>엔트로피를 이용한 트래픽 시공간 사전 분석</li>
  <li>ML을 돌릴 때 Training 시간을 조절하면서 결과 비교 그래프 첨부</li>
  <li>데이터 각 열들간의 상관성을 바탕으로 조건부 엔트로피 계산</li>
</ul>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: Entropy-based framework for analyzing and predicting cellular RAN traffic, bridging information theory with practical telecom network traffic forecasting.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/0114/thumbnail/thumbnail.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/0114/thumbnail/thumbnail.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">Analyzing and Modeling Spatio-Temporal Dependence of Cellular Traffic at City Scale</title><link href="https://corbinkim.github.io/blog/2025/01/13/analyzing-and-modeling-spatil-temporal-dependence-of-cellular-traffic-at-city-scale/" rel="alternate" type="text/html" title="Analyzing and Modeling Spatio-Temporal Dependence of Cellular Traffic at City Scale" /><published>2025-01-13T00:00:00+00:00</published><updated>2025-01-13T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2025/01/13/analyzing-and-modeling-spatil-temporal-dependence-of-cellular-traffic-at-city-scale</id><content type="html" xml:base="https://corbinkim.github.io/blog/2025/01/13/analyzing-and-modeling-spatil-temporal-dependence-of-cellular-traffic-at-city-scale/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a></li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a>    <ul>
      <li><a href="#21-연구-주제는" id="markdown-toc-21-연구-주제는">2.1 연구 주제는?</a>        <ul>
          <li><a href="#211-연구-주제" id="markdown-toc-211-연구-주제">2.1.1 연구 주제</a></li>
          <li><a href="#212-contribution" id="markdown-toc-212-contribution">2.1.2 Contribution</a></li>
          <li><a href="#213-주제-선택-이유" id="markdown-toc-213-주제-선택-이유">2.1.3 주제 선택 이유</a></li>
        </ul>
      </li>
      <li><a href="#22-연구의-목표는" id="markdown-toc-22-연구의-목표는">2.2 연구의 목표는?</a></li>
      <li><a href="#23-연구-수행-방법은" id="markdown-toc-23-연구-수행-방법은">2.3 연구 수행 방법은?</a>        <ul>
          <li><a href="#231-셀룰러-네트워크-구조" id="markdown-toc-231-셀룰러-네트워크-구조">2.3.1 셀룰러 네트워크 구조</a></li>
          <li><a href="#232-사용-데이터셋" id="markdown-toc-232-사용-데이터셋">2.3.2 사용 데이터셋</a>            <ul>
              <li><a href="#233a-spatio-temporal-foundation-of-cellular-traffic" id="markdown-toc-233a-spatio-temporal-foundation-of-cellular-traffic">2.3.3.A Spatio-Temporal Foundation of Cellular Traffic</a></li>
              <li><a href="#233b-modeling-spatio-temporal-dependence" id="markdown-toc-233b-modeling-spatio-temporal-dependence">2.3.3.B Modeling Spatio-Temporal Dependence</a></li>
            </ul>
          </li>
          <li><a href="#234-exploratory-dependence-analysis" id="markdown-toc-234-exploratory-dependence-analysis">2.3.4 Exploratory Dependence Analysis</a></li>
          <li><a href="#235-modeling-spatial-temporal-dependence" id="markdown-toc-235-modeling-spatial-temporal-dependence">2.3.5 Modeling Spatial-Temporal Dependence</a>            <ul>
              <li><a href="#235a-estimation-of-model-parameters" id="markdown-toc-235a-estimation-of-model-parameters">2.3.5.A Estimation of Model Parameters</a></li>
              <li><a href="#235b-evaluation-of-prediction-performance" id="markdown-toc-235b-evaluation-of-prediction-performance">2.3.5.B Evaluation of Prediction Performance</a>                <ul>
                  <li><a href="#예측-방식" id="markdown-toc-예측-방식">예측 방식</a></li>
                  <li><a href="#성능-평가-지표-rmse" id="markdown-toc-성능-평가-지표-rmse">성능 평가 지표: RMSE</a></li>
                </ul>
              </li>
              <li><a href="#235c-discussions" id="markdown-toc-235c-discussions">2.3.5.C Discussions</a>                <ul>
                  <li><a href="#separable-모델" id="markdown-toc-separable-모델">Separable 모델</a></li>
                  <li><a href="#non-separable-모델" id="markdown-toc-non-separable-모델">Non-Separable 모델</a></li>
                  <li><a href="#한계-극복-방안" id="markdown-toc-한계-극복-방안">한계 극복 방안</a></li>
                  <li><a href="#주요-시사점-및-결론" id="markdown-toc-주요-시사점-및-결론">주요 시사점 및 결론</a></li>
                </ul>
              </li>
            </ul>
          </li>
          <li><a href="#236-conclusion" id="markdown-toc-236-conclusion">2.3.6 Conclusion</a>            <ul>
              <li><a href="#연구-개요" id="markdown-toc-연구-개요">연구 개요</a></li>
              <li><a href="#주요-발견" id="markdown-toc-주요-발견">주요 발견</a></li>
              <li><a href="#future-work" id="markdown-toc-future-work">Future Work</a></li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>SKT 트래픽 예측 논문 레퍼런스 조사</li>
  <li>트래픽 시/공간 관계 조사</li>
</ol>

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<h2 id="21-연구-주제는">2.1 연구 주제는?</h2>

<h3 id="211-연구-주제">2.1.1 연구 주제</h3>
<ul>
  <li>도시 규모의 셀룰러 네트워크에서 트래픽의 시공간 의존성을 분석하과 이를 모델링함으로써 트래픽 특성을 정량적으로 파악하는 것</li>
</ul>

<h3 id="212-contribution">2.1.2 Contribution</h3>
<ul>
  <li>최초로 실제 상용 데이터에서 셀룰러 트래픽의 시공간 의존성을 이해하기 위한 노력을 함</li>
  <li>트래픽 의존성에 대한 몇 가지 특성을 발견함</li>
</ul>

<h3 id="213-주제-선택-이유">2.1.3 주제 선택 이유</h3>
<ul>
  <li>셀룰러 네트워크는 사용자 이동성과 비선형 트래픽 분포 특성으로 인해 비균질성과 시간적 변동성을 보임. 기존 연구는 시간적 특성이나 공간적 특성 중 하나에만 집중하거나 두 특성을 독립적으로 다루는 경우가 많았음. 그러나 셀룰러 트래픽은 시간과 공간 간 상호작용을 반영해야 더 정확한 네트워크 모델링 및 자원 최적화가 가능함. 본 연구는 도시의 대규모 데이터를 통해 이러한 상호작용을 분석하고, 네트워크 설계와 관리에 필요한 인사이트를 제공하기 위해 주제를 선택</li>
</ul>

<h2 id="22-연구의-목표는">2.2 연구의 목표는?</h2>
<ol>
  <li>도시 규모의 셀룰러 트래픽 데이터를 분석하여 시공간 의존성을 파악</li>
  <li>공간적 비균질성과 시간적 의존성을 통합적으로 고려한 모델을 개발하여 트래픽 패턴을 정밀하게 설명하고 예측 성능을 향상</li>
  <li>개발된 모델을 통해 네트워크 자원 관리 및 최적화를 위한 실질적인 통찰 제공</li>
</ol>

<h2 id="23-연구-수행-방법은">2.3 연구 수행 방법은?</h2>

<h3 id="231-셀룰러-네트워크-구조">2.3.1 셀룰러 네트워크 구조</h3>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_1.png" alt="Figure 1" />
</div>

<ul>
  <li>셀룰러 네트워크는 3개의 주요 부분으로 구성됨
    <ul>
      <li>RAN: 사용자 장치(UE)와 기지국(BTS) 간 통신 담당</li>
      <li>Core Network: 데이터 패킷 라우팅(BSC \(\rightarrow\) SGSN \(\rightarrow\) GGSN)을 통해 모바일 네트워크와 인터넷 연결</li>
      <li>Public Network: 외부 인터넷 연결 제공</li>
    </ul>
  </li>
  <li>데이터는 Network Traffic Mining Platform(NTMP)에서 DPI를 통해 HTTP 로그를 추출 후 분석됨</li>
</ul>

<h3 id="232-사용-데이터셋">2.3.2 사용 데이터셋</h3>
<ul>
  <li>데이터셋 정보
    <ul>
      <li>수집 기간: 2012.08.20 - 2021.08.26, 7일간의 트래픽 데이터</li>
      <li>수집 범위: 28 km x 35 km, 도시 중심 및 교외 포함</li>
      <li>수집량:
        <ul>
          <li>13,000개 기지국에서 생성된 트래픽</li>
          <li>452,000명의 사용자가 생성한 총 379백만 건의 HTTP 기록</li>
        </ul>
      </li>
      <li>데이터 특성:
        <ul>
          <li>각 사용자 활동은 기지국 좌표(위도, 경도)와 함께 기록됨</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h4 id="233a-spatio-temporal-foundation-of-cellular-traffic">2.3.3.A Spatio-Temporal Foundation of Cellular Traffic</h4>
<ul>
  <li>셀룰러 트래픽의 시공간 모델링
    <ul>
      <li>셀룰러 트래픽은 시공간 확률 과정으로 표현됨</li>
      <li>특정 시공간 점에서의 트래픽:</li>
    </ul>
  </li>
</ul>

\[y(s, t) \sim Y(s, t) \tag{1}\]

<ul>
  <li>\(s\): 공간 인덱스</li>
  <li>
    <p>\(t\): 시간 인덱스</p>
  </li>
  <li>확률적 과정 정의:</li>
</ul>

\[\{Y(s, t) : s \in \mathcal{D}_{s}, t \in \mathcal{D}_{t}\}\]

<ul>
  <li>\(\mathcal{D}_{s}\): 공간 도메인으로 상호 배타적인 지역으로 나뉨</li>
  <li>
    <p>\(\mathcal{D}_{t}\): 시간 도메인으로, 동일 간격의 시간 구간으로 분할됨</p>
  </li>
  <li>Spatio Temporal Covariance Function(STCF)
    <ul>
      <li>\(E[Y(s, t) = \mu]\), 이고 \(Var[Y(s, t) = \sigma^2]  \leq \infty\)일 때 공간적 차이 \(h\)와 시간적 차이 \(u\)에 따른 공분산 함수</li>
    </ul>

\[C(s_i, s_j; t_i, t_j) = Cov[Y(s_i, t_i), Y(s_j, t_j)] = C(h, u)\]

    <ul>
      <li>\(h = s_j - s_i\): 공간적 차이</li>
      <li>
        <p>\(u = t_j = t_i\): 시간적 차이</p>
      </li>
      <li>공간적 및 시간적 공분산 함수의 특별한 경우
        <ul>
          <li>순수 공간 공분산: \(C(\mathbf{h}, 0)\)</li>
          <li>순수 시간 공분산: \(C(0, u)\)</li>
          <li>Correlation 함수: \(\rho(\mathbf{h}, u) = C(\mathbf{h}, u) / \sigma^2\)</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>Emperical STCF</li>
</ul>

\[\hat{C}(h, u) = \frac{1}{|N_h|} \frac{1}{|N_u|} \sum_{N_h} \sum_{N_u} \big( Y(s_i, t_i) - \hat{\mu}(s_i) \big) \big( Y(s_j, t_j) - \hat{\mu}(s_j) \big)\]

<h4 id="233b-modeling-spatio-temporal-dependence">2.3.3.B Modeling Spatio-Temporal Dependence</h4>

<p>시공간 데이터를 설명하기 위해 두 가지 모델링 전략이 제안됨</p>

<ul>
  <li>
    <p><strong>독립적 모델 (Separable Model)</strong></p>
  </li>
  <li>
    <p>공간적 의존성과 시간적 의존성을 독립적으로 계산함</p>
  </li>
  <li>공분산 함수: \(C(\mathbf{h}, u) = \sigma^s \rho(\mathbf{h}) \rho(u)\)
    <ul>
      <li>\(\sigma^s\): 전체 트래픽 변동성을 나타내는 분산</li>
      <li>\(\rho(\mathbf{h})\): pure 공간적 공분산 함수</li>
      <li>\(\rho(u)\): pure 시간적 공분산 함수</li>
    </ul>
  </li>
  <li>
    <p>공간적/시간적 공분산 함수 예시</p>

    <ul>
      <li>지수 함수(Exponential)</li>
    </ul>
  </li>
</ul>

\[\rho(x) = e^{-x}, x \ge 0\]

<ul>
  <li>
    <p>거리 또는 시간 차이에 따라 상관성이 지수적으로 감소</p>

    <ul>
      <li>Cauchy 클래스(Cauchy)</li>
    </ul>
  </li>
</ul>

\[\rho(x) = (1 + x^{\alpha})^{-{\beta} \over {\alpha}}\]

<ul>
  <li>\(\alpha, \beta\): 파라미터로,상관성 감소 속도를 조정</li>
  <li>
    <p>더 유연하게 상관성 감소 패턴 설명 가능</p>
  </li>
  <li><strong>비독립적 모델 (Non-Separable Model)</strong>
    <ul>
      <li>
        <p>공간-시간 상호작용을 포함하여 복잡한 의존성을 설명</p>

        <ol>
          <li>\(\phi(x)\) - 완전 단조 함수 (Completely Monotonic Function) 정의
            <ul>
              <li>정의: 모든 차수의 도함수가 존재</li>
              <li>조건: \((-1)^{n} \phi^{n} (r) \ge 0\)</li>
            </ul>
          </li>
          <li>\(\psi(x)\) - 시간 효과 함수 (Tempoeral Effect Function) 정의
            <ul>
              <li>정의: 모든 시간 차수의 도함수가 존재</li>
            </ul>
          </li>
          <li>\(\rho(mathbf{h}, u)\) - 공분산 함수 도출
            <ul>
              <li>\(\phi(x)와 \psi(x)\)를 결합하여 비독립적 공분산 함수 정의</li>
            </ul>

\[\rho(h, u) = \frac{1}{\psi(u^2)^{d/2}} \phi\left(\frac{\|h\|^2}{\psi(u^2)}\right), \quad d &gt; 0\]
          </li>
        </ol>

        <ul>
          <li>\(\phi(x)\): 공간-시간 상호작용 설명</li>
          <li>\(\psi(x)\): 시간 효과 반영</li>
          <li>\(d\): 차원 스케일링 파라미터로 모델이 공간-시간 의존성을 조정</li>
          <li>해석: 시간적 효과(\(\psi(u^2)\))가 공분산의 스케일을 조정하고, 공간적 차이(\(\lVert h^2 \rVert\))를 통해 공간-시간 간 상호작용 포착</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>Gneting-Class 모델의 주요 특징</li>
</ul>

<ol>
  <li>유연성:
    <ul>
      <li>기존 지수 함수 기반 공분산 함수보다 더 다양한 공간-시간 상호작용 패턴 설명 가능</li>
      <li>특정 시간대 또는 거리에서 상관성이 급격히 감소하거나 완만히 감소하는 상황 모두 포착 가능</li>
    </ul>
  </li>
  <li>파라미터 추정:
    <ul>
      <li>모델 파라미터 \(\Theta\)는 log-likelihood 함수 \(L(\Theta \lvert \mathbf{O})\)를 최대화하여 추정</li>
    </ul>
  </li>
</ol>

<ul>
  <li>\(\Theta\): 모델 파라미터 집합</li>
  <li>\(\mathbf{O}\): Spatio-Temporal observations</li>
</ul>

<h3 id="234-exploratory-dependence-analysis">2.3.4 Exploratory Dependence Analysis</h3>

<ol>
  <li>공간 분석 (Spatial Analysis)</li>
</ol>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_2.png" alt="Figure 2" />
</div>

<ul>
  <li>
    <p>목적: 셀룰러 네트워크 트래픽의 공간적 의존성을 분석하여 기지국 간 거리와 트래픽의 상관성을 평가 후 공간적 비균질성(Spatial Inhormogeneity)를 이해</p>
  </li>
  <li>
    <p>분석 과정:</p>

    <ol>
      <li>기지국 단위 트래픽의 공간 밀도 분포를 분석하여 분포 특성을 파악</li>
      <li>공간적 공분산 함수 \(\rho(h, 0)\)를 계산해 거리 \(h\)에 따른 상관성 감소 패턴 분석</li>
    </ol>
  </li>
  <li>
    <p>Figure 4a: 기지국 단위 트래픽의 공간 밀도 분포</p>

    <ul>
      <li>내용:
        <ul>
          <li>각 기지국의 트래픽 용량(로그 스케일)과 해당 빈도를 나타냄</li>
          <li>대부분의 기지국이 낮거나 중간 트래픽을 처리하지만, 소수의 기지국에서 long tail로 나타나는 높은 트래픽 처리</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>
    <p>Figure 4b: 분포 모델 적합도 평가</p>

    <ul>
      <li>내용:
        <ul>
          <li>Weibull, Log-normal, Log-normal mixture 분포를 데이터에 피팅하고 K-S 통계를 통해 적합도 비교</li>
        </ul>
      </li>
      <li>결과:
        <ul>
          <li>Log-normal mixture 분포가 가장 적합하며, Weibull과 Log-normal은 상대적으로 덜 적합</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<hr />

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_3.png" alt="Figure 3" />
</div>

<ul>
  <li>
    <p>Figure 5: 분포 모델 적합도 평가</p>

    <ul>
      <li>내용:
        <ul>
          <li>시간대(7AM, 2PM, 9PM)로 공간적 공분산 함수 \(\rho(\mathbf{h},0) \sim h^{\gamma_t}\)를 계산</li>
          <li>각 시간대에 따라 상관성이 거리 \(\mathbf{h}\)에 따라 감소하는 패턴 시각화</li>
        </ul>
      </li>
      <li>결과:
        <ul>
          <li>피크 시간대(2PM): 상관성은 약 5km까지 유지되며 이후 급격히 감소</li>
          <li>비피크 시간대(7AM, 9PM): 상관성은 약 10km까지 유지되며 더 완만히 감소
            <ul>
              <li>이는 출퇴근 및 점심시간과 같은 인간 활동 패턴에 의해 영향을 받음</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<ol>
  <li>시간 분석 (Temporal Analysis)</li>
</ol>

<ul>
  <li>목적: 시간에 따른 트래픽 변화와 의존성을 분석하여 도심과 교외 지역의 트래픽 패턴 차이를 파악</li>
  <li>분석 과정:
    <ol>
      <li>특정 지역(도심/교외)에서의 시간별 트래픽 변화를 관찰</li>
      <li>시간적 공분산 함수 \(\rho(0, u)\)를 계산해 시간 간격 \(u\)에 따른 상관성 분석</li>
    </ol>
  </li>
</ul>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_4.png" alt="Figure 4" />
</div>

<ul>
  <li>
    <p>Figure 6a: 지역 구분</p>

    <ul>
      <li>내용:
        <ul>
          <li>분석 지역을 도심(Region A)와 교외(Region B, C)로 나눔</li>
          <li>도심은 상업 및 업무 지구, 교외는 주거 지역으로 정의</li>
          <li>이 구분을 통해 각 지역의 트래픽 패턴 차이를 분석</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>
    <p>Figure 6b: 시간대별 트래픽 변화</p>

    <ul>
      <li>내용:
        <ul>
          <li>도심(Region A)와 교외(Region B, C)의 시간대별 트래픽 변화 비교</li>
          <li>도심: 점심시간에 트래픽 최고치 도달</li>
          <li>교외: 하루 종일 트래픽이 꾸준히 증가</li>
          <li>이 차이는 인간의 이동 패턴과 밀접히 연결(출퇴근과 같은 “Tide Effect”)</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>
    <p>Figure 6c &amp; 6d: 시간적 공분산 함수(\(\rho(0, u)\))</p>

    <ul>
      <li>내용:
    - 시간 간격 u에 따른 트래픽 상관성을 계산하여 도심(6c)와 교외(6d)의 패턴 비교
    - 도심: 점심시간에 상관성이 강하며, 12시간 주기에서 반복적인 상관성 관찰
    - 교외: 24시간 주기에서 강한 상관성이 유지되며, 도심보다 장기적인 패턴이 뚜렷</li>
    </ul>
  </li>
</ul>

<h3 id="235-modeling-spatial-temporal-dependence">2.3.5 Modeling Spatial-Temporal Dependence</h3>

<p>본 파트에서는 시공간 의존성을 모델링하는 방법과, 실험을 통해 각 모델의 성능을 평가한 결과를 다룬다. 특히, 공간적-시간적 상호작용을 효과적으로 반영하기 위해 독립적(Separable) 모델과 비독립적(Non-Separable) 모델을 비교하며, 각 모델의 특징 및 성능 차이를 분석한다.
 주요 내용은 아래와 같다.</p>
<ul>
  <li>모델 파라미터 추정 (Estimation of Model Parameters)</li>
  <li>모델 예측 성능 평가 (Evaluation of Prediction Performance)</li>
  <li>모델링 결과 논의 (Discussions)</li>
</ul>

<h4 id="235a-estimation-of-model-parameters">2.3.5.A Estimation of Model Parameters</h4>

<ul>
  <li>지역별 의존성 모델을 사용하여 트래픽 특성의 차이를 반영</li>
  <li>Maximum-Likelihood Estimation(MLE)으로 모델 파라미터를 학습</li>
  <li>계산 복잡성을 줄이기 위해 다음과 같은 제약을 설정
    <ul>
      <li><strong>공간적 제한</strong>: 최대 5km 거리까지의 상관성만 반영</li>
      <li><strong>시간적 제한</strong>: 최대 6시간 이전의 데이터만 예측에 활용</li>
    </ul>
  </li>
  <li>이 제한은 <strong>피크 시간대에 상관성이 급격히 감소</strong>하는 경향을 반영</li>
</ul>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_5.png" alt="Figure 5" />
</div>

<ul>
  <li>세 가지 공분산 모델(Exponential, Cauchy-class, Gneting-class)를 교외 및 도심 지역에서 비교</li>
  <li>결과 해석
    <ul>
      <li>교외 지역:
        <ul>
          <li>공간적 거리 1km, 시간적 간격 2시간 이내에서는 세 모델 모두 높은 상관성을 보임</li>
          <li>거리 및 시간 증가 시 모델 간 상관성 감소 속도가 다름
            <ul>
              <li>Exponential, Gneting-class 모델: 완만한 감소</li>
              <li>Cauchy-class 모델: 급격한 감소</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>도심 지역:
        <ul>
          <li>시간적 상관성에서 세 모델의 차이가 두드러짐
            <ul>
              <li>Gneting-class 모델: 완만한 감소, 가장 현실적</li>
              <li>Exponential 모델: 급격한 감소</li>
              <li>Cauchy-class 모델: 보수적 감소 성향</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h4 id="235b-evaluation-of-prediction-performance">2.3.5.B Evaluation of Prediction Performance</h4>

<h5 id="예측-방식">예측 방식</h5>

<ul>
  <li>모델 파라미터는 하루 데이터를 기반으로 학습 후, 다음 6시간 동안의 트래픽을 예측</li>
  <li>공간적으로는 지역을 10x10 그리드로 나누어 N = 100 블록을 사용</li>
  <li>시간적으로는 T = 144(10분 단위)로 데이터를 분할하여 활용</li>
</ul>

<h5 id="성능-평가-지표-rmse">성능 평가 지표: RMSE</h5>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_6.png" alt="Figure 6" />
</div>

<ul>
  <li>교외 지역
    <ul>
      <li>Gneting-class 모델의 RMSE가 2.8% - 25.2% 감소</li>
      <li>화요일과 주말은 Separable 모델이 약간 더 우수</li>
    </ul>
  </li>
  <li>도심 지역
    <ul>
      <li>Non-separable 모델이 대부분의 요일에서 RMSE를 3.7% - 23.6% 감소</li>
      <li>Non-separable 모델의 성능 우위가 더 뚜렷</li>
    </ul>
  </li>
</ul>

<div align="center">
  <img src="/assets/img/blog/0113/fig/fig_7.png" alt="Figure 7" />
</div>

<ul>
  <li>도심과 교외에서 Gneting-class 모델을 사용하여 예측한 셀룰러 트래픽과 실제 관측된 트래픽 간의 관계를 나타낸 산점도
    <ul>
      <li>점들이 대각선에 가까울수록 예측값과 실제값의 일치도가 높음을 의미</li>
    </ul>
  </li>
  <li>분석 내용
    <ul>
      <li>도심 지역
        <ul>
          <li>도심 지역의 트래픽은 중간 트래픽(0.5 - 0.75)에서 집중적으로 분포</li>
          <li>산점도가 대각선에 가까운 점들이 밀집되어 있어 예측 정확도가 높음을 확인</li>
        </ul>
      </li>
      <li>원인 및 해석
        <ul>
          <li>도심 지역의 트래픽은 공간적 밀도가 높고, 정규화된 값의 중간 범위에 데이터가 집중됨</li>
          <li>이는 Gneting-class 모델이 중간 트래픽 값에서 더 정확한 예측을 제공한다는 점을 시사</li>
        </ul>
      </li>
      <li>RMSE 결과
        <ul>
          <li>도심 지역에서 Gneting-class 모델의 RMSE는 0.137로 교외 지역보다 낮음</li>
          <li>이는 도심 지역의 트래픽 분포가 모델 학습에 유리하게 작용했음을 나타냄</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<hr />

<ul>
  <li>주요 발견
    <ul>
      <li>부드러운 예측(Smoothing Effect)
        <ul>
          <li>Gneting-class 모델은 트래픽 값의 극단적인 변동을 부드럽게 조정</li>
          <li>실제값이 낮은 경우(\(x &lt; 0.25\))에는 예측값이 약간 높게 나타나고, 높은 경우 (\(x &gt; 0.75\))에는 예측값이 약간 낮아짐</li>
          <li>이는 비독립적 모델의 구조적 특성에서 기인하며 극단적인 변동성을 완화함으로써 안정적인 예측을 제공</li>
        </ul>
      </li>
      <li>도심 vs. 교외 비교:
        <ul>
          <li>도심 지역:
            <ul>
              <li>중간 트래픽 값 구간(0.5 - 0.75)에 데이터가 집중되어 모델 성능이 더 우수</li>
              <li>RMSE가 0.137로 교외보다 낮음</li>
            </ul>
          </li>
          <li>교외 지역:
            <ul>
              <li>낮은 트래픽 밀도와 넓은 공간적 범위로 인해 예측의 어려움이 더 큼</li>
              <li>RMSE가 0.154로 도심보다 약간 높음
-음</li>
            </ul>
          </li>
        </ul>
      </li>
      <li>Gneting-class 모델의 강점:
        <ul>
          <li>공간-시간 상호작용을 효과적으로 반영하여 예측 정확도 개선</li>
          <li>교외 및 도심 지역 모두에서 독립적 모델(Exponential, Cauchy-class)보다 더 낮은 RMSE를 기록</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h4 id="235c-discussions">2.3.5.C Discussions</h4>

<h5 id="separable-모델">Separable 모델</h5>

<ul>
  <li>장점
    <ul>
      <li>수학적 간결성
        <ul>
          <li>공간적 공분산 함수(\(\rho(h)\))와 시간적 공분산 함수(\(\rho(u)\))를 분리하여 계산하므로 구현이 단순하고 계산 효율적</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>한계
    <ul>
      <li>상호작용 부족
        <ul>
          <li>공간과 시간 간의 상호작용을 반영하지 못함</li>
          <li>서로 다른 시간대에서 공간적 상관성이 동일한 형태를 가지는 등 비현실적인 가정</li>
        </ul>
      </li>
      <li>조건부 상관성의 초기값 설정 문제
        <ul>
          <li>공분산 함수의 초기 조건(ex. \(\rho(h, 0)\)) 선택이 부정확할 경우, 모델링 결과가 왜곡될 가능성 존재</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h5 id="non-separable-모델">Non-Separable 모델</h5>

<ul>
  <li>장점
    <ul>
      <li>복잡한 상호작용 반영
        <ul>
          <li>공간-시간 간의 상호작용 정보를 통합하여 현실적인 셀룰러 트래픽 패턴을 포착</li>
          <li>더 복잡하고 다양한 의존성 설명 가능</li>
        </ul>
      </li>
    </ul>
  </li>
  <li>한계
    <ul>
      <li>계산 비용
        <ul>
          <li>모델 파라미터가 많고 구조가 복잡하여 학습 시간이 더 오래 걸림</li>
        </ul>
      </li>
      <li>과적합 위험
        <ul>
          <li>모델이 역사적 데이터에 지나치게 적합할 경우, 급격한 트래픽 변화에 대응하지 못할 가능성 존재</li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h5 id="한계-극복-방안">한계 극복 방안</h5>

<ol>
  <li>크로스벨리데이션 및 부트스트랩
    <ul>
      <li>과적합 문제를 해결하고 모델의 견고성을 높이기 위한 일반적인 방법</li>
      <li>다양한 데이터 샘플에 대해 반복적으로 학습 및 검증하여 모델의 신뢰성을 개선</li>
    </ul>
  </li>
  <li>클러스터 기반 의존성 모델링
    <ul>
      <li>지역별 또는 시간대 별로 서로 다른 모델을 설계
        <ul>
          <li>예: 도심과 교외 지역, 주간과 야간 시간대에 맞는 개별 모델 사용</li>
        </ul>
      </li>
      <li>이를 통해 복잡한 트래픽 패턴을 더 효과적으로 설명하며, 정확도와 견고성 간의 균형을 유지</li>
    </ul>
  </li>
</ol>

<hr />

<h5 id="주요-시사점-및-결론">주요 시사점 및 결론</h5>

<ol>
  <li>모델 선택의 중요성
    <ul>
      <li>독립적 모델은 단순성과 효율성을 제공하지만, 공간과 시간의 상호작용이 중요한 환경에서는 비독립적 모델이 필요</li>
    </ul>
  </li>
  <li>모델링 복잡성과 성능 간 균형
    <ul>
      <li>비독립적 모델은 더 높은 성능을 제공하지만, 계산 비용 증가 및 과적합 위험이 단점으로 작용</li>
      <li>크로스밸리데이션 또는 클러스터 기반 접근 방식으로 한계 보완</li>
    </ul>
  </li>
  <li>맞춤형 모델링의 필요성
    <ul>
      <li>지역 또는 시간대의 특성을 반영한 맞춤형 모델을 활용하여 정확도와 견고성을 동시에 달성</li>
    </ul>
  </li>
</ol>

<hr />

<h3 id="236-conclusion">2.3.6 Conclusion</h3>

<h4 id="연구-개요">연구 개요</h4>

<ul>
  <li>본 연구는 도시 규모의 셀룰러 트래픽 데이터를 분석하여 시공간 의존성(spatio-temporal dependence)을 탐구</li>
  <li>기존 연구가 강조했던 시간적 역학(temporal dynamics) 및 공간적 비균질성(spatial inhomogeneity)을 넘어, 두 요소 간의 상호작용을 포함한 새로운 관점을 제시</li>
</ul>

<h4 id="주요-발견">주요 발견</h4>
<ol>
  <li>공간적 관점</li>
</ol>

<ul>
  <li>셀룰러 트래픽은 이전 연구에서 가정한 uniformity을 위반</li>
  <li>이로 인해 네트워크 자원 활용에 불균형이 발생할 수 있음</li>
  <li>네트워크 시스템 설계 시 이러한 특성을 고려해야 대규모 시스템 장애를 방지 가능</li>
</ul>

<ol>
  <li>시간적 관점</li>
</ol>

<ul>
  <li>시공간 의존성을 반영한 네트워크 모듈은 혼잡을 사전에 완화할 수 있음</li>
  <li>이는 네트워크 안정성을 높이고, 운영 효율성을 개선하는 데 기여</li>
</ul>

<ol>
  <li>시공간 통합 정보의 중요성
    <ul>
      <li>공간적 및 시간적 데이터를 결합하여 상호작용 정보를 활용하면, 네트워크 시스템이 더 견고해지고 현실적인 시나리오에서 효과적으로 작동할 수 있음</li>
    </ul>
  </li>
</ol>

<h4 id="future-work">Future Work</h4>

<ul>
  <li>인간 이동성과 셀룰러 트래픽 간 연관성 연구
    <ul>
      <li>도시 내 집단적 인간 이동 패턴을 모델링</li>
      <li>트래픽의 공간적 변화와 인간 활동 간 상호작용을 정량화</li>
    </ul>
  </li>
  <li>시공간 의존성 모델 혼합
    <ul>
      <li>목표:
        <ul>
          <li>서로 다른 지역 또는 시간대의 트래픽 특성을 반영하기 위해 모델 혼합(mixture models)을 도입</li>
        </ul>
      </li>
      <li>도전과제:
        <ul>
          <li>효율적인 경계 탐지 알고리즘 개발
            <ul>
              <li>특정 모델 파라미터를 추정할 수 있는 시공간 경계를 자동으로 감지</li>
            </ul>
          </li>
          <li>효율적인 모델 결합 알고리즘
            <ul>
              <li>여러 모델을 통합하여 계산 비용을 줄이고, 높은 성능을 유지</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<hr />

<h1 id="3-take-away">3. Take Away</h1>
<ul>
  <li>셀룰러 트래픽은 공간적 및 시간적 특성이 복잡하게 얽혀 있으며, 이를 반영한 네트워크 모델링이 필수적</li>
  <li>인간 이동 패턴과 결합한 분석, 또는 지역별 맞춤형 모델링이 향후 연구의 중요한 방향으로 제시됨</li>
  <li>시공간 경계 탐지 및 효율적인 모델 결합 알고리즘은 이렇나 연구를 뒷받침하는 핵심 기술이 될 것</li>
</ul>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: Spatio-temporal analysis of city-scale cellular traffic patterns, revealing tide effects and correlation structures for improved traffic modeling.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/0113/thumbnail/c2tm.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/0113/thumbnail/c2tm.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">Game-Theoretic Solutions for Data Offloading in Next Generation Networks</title><link href="https://corbinkim.github.io/blog/2024/11/20/game-theoretic-solutions-for-data-offloading-in-next-generation-networks/" rel="alternate" type="text/html" title="Game-Theoretic Solutions for Data Offloading in Next Generation Networks" /><published>2024-11-20T00:00:00+00:00</published><updated>2024-11-20T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2024/11/20/game-theoretic-solutions-for-data-offloading-in-next-generation-networks</id><content type="html" xml:base="https://corbinkim.github.io/blog/2024/11/20/game-theoretic-solutions-for-data-offloading-in-next-generation-networks/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a></li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a></li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>게임 이론 이해</li>
  <li>게임 이론을 활용한 데이터 오프로딩 튜토리얼</li>
</ol>

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<h1 id="3-take-away">3. Take Away</h1>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: Game-theoretic approaches (Stackelberg, Nash equilibrium) for data offloading between MNOs and access points, optimizing QoS in next-generation wireless networks.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/game-theory/game-theory.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/game-theory/game-theory.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">AI-Ready Energy Modelling for Next Generation RAN</title><link href="https://corbinkim.github.io/blog/2024/11/15/AI-ready-Energy-Modeling-for-Next-Generation-RAN/" rel="alternate" type="text/html" title="AI-Ready Energy Modelling for Next Generation RAN" /><published>2024-11-15T00:00:00+00:00</published><updated>2024-11-15T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2024/11/15/AI-ready-Energy-Modeling-for-Next-Generation-RAN</id><content type="html" xml:base="https://corbinkim.github.io/blog/2024/11/15/AI-ready-Energy-Modeling-for-Next-Generation-RAN/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper</a></li>
  <li><a href="#2-paper-summarization" id="markdown-toc-2-paper-summarization">2. Paper Summarization</a>    <ul>
      <li><a href="#21-introduction" id="markdown-toc-21-introduction">2.1 Introduction</a>        <ul>
          <li><a href="#211-문제-정의" id="markdown-toc-211-문제-정의">2.1.1 문제 정의</a></li>
          <li><a href="#212-aimm-시뮬레이터" id="markdown-toc-212-aimm-시뮬레이터">2.1.2 AIMM 시뮬레이터</a></li>
          <li><a href="#213-핵심-목표" id="markdown-toc-213-핵심-목표">2.1.3 핵심 목표</a></li>
        </ul>
      </li>
      <li><a href="#22-backgroud" id="markdown-toc-22-backgroud">2.2 Backgroud</a>        <ul>
          <li><a href="#221-5g-네트워크의-에너지-소비-문제" id="markdown-toc-221-5g-네트워크의-에너지-소비-문제">2.2.1 5G 네트워크의 에너지 소비 문제</a></li>
          <li><a href="#222-디지털트윈과-aimm-시뮬레이터" id="markdown-toc-222-디지털트윈과-aimm-시뮬레이터">2.2.2 디지털트윈과 AIMM 시뮬레이터</a></li>
        </ul>
      </li>
      <li><a href="#23-methods" id="markdown-toc-23-methods">2.3 Methods</a>        <ul>
          <li><a href="#231-aimm-시뮬레이터-구성" id="markdown-toc-231-aimm-시뮬레이터-구성">2.3.1 AIMM 시뮬레이터 구성</a></li>
          <li><a href="#232-기지국-전력-소비-모델" id="markdown-toc-232-기지국-전력-소비-모델">2.3.2 기지국 전력 소비 모델</a></li>
          <li><a href="#233-실험-설정" id="markdown-toc-233-실험-설정">2.3.3 실험 설정</a></li>
        </ul>
      </li>
      <li><a href="#24-results-and-discussion" id="markdown-toc-24-results-and-discussion">2.4 Results and Discussion</a>        <ul>
          <li><a href="#241-송신-전력과-네트워크-성능" id="markdown-toc-241-송신-전력과-네트워크-성능">2.4.1 송신 전력과 네트워크 성능</a></li>
          <li><a href="#242-에너지-효율성ee" id="markdown-toc-242-에너지-효율성ee">2.4.2 에너지 효율성(EE)</a></li>
          <li><a href="#243-스펙트럼-효율성se됨" id="markdown-toc-243-스펙트럼-효율성se됨">2.4.3 스펙트럼 효율성(SE)됨</a></li>
          <li><a href="#244-미래-네트워크-설계-시-주의할-점" id="markdown-toc-244-미래-네트워크-설계-시-주의할-점">2.4.4 미래 네트워크 설계 시 주의할 점</a></li>
        </ul>
      </li>
      <li><a href="#25-conclusion" id="markdown-toc-25-conclusion">2.5 Conclusion</a></li>
    </ul>
  </li>
  <li><a href="#3-take-away" id="markdown-toc-3-take-away">3. Take Away</a></li>
</ul>

<h1 id="1-why-this-paper">1. Why this paper</h1>

<ol>
  <li>AIMM 시뮬레이터 이해</li>
  <li>기지국 환경에서 사용할 수 있는 파라미터들 숙지</li>
</ol>

<h1 id="2-paper-summarization">2. Paper Summarization</h1>

<h2 id="21-introduction">2.1 Introduction</h2>

<h3 id="211-문제-정의">2.1.1 문제 정의</h3>
<p>차세대 RAN 설계에서는 에너지 소비가 중요한 설계 기준이 되었으며 AI와 ML을 활용하여 네트워크 에너지 효율성과 성능 간의 트레이드오프를 최적화하려는 연구가 진행되고 있다.</p>

<h3 id="212-aimm-시뮬레이터">2.1.2 AIMM 시뮬레이터</h3>
<p>AIMM(AI-enabled Massive MIMO) 시뮬레이터는 5G 네트워크를 가상으로 재현하며, 송신 전력 감소 시나리오를 통해 에너지 효율성(EE)과 스펙트럼 효율성(SE)를 분석할 수 있는 오픈소스 시뮬레이터이다.</p>

<h3 id="213-핵심-목표">2.1.3 핵심 목표</h3>
<ol>
  <li>송신 전력 조정을 통해 EE와 SE간의 관계를 파악</li>
  <li>네트워크 성능을 저하하지 않으면서 에너지 소비를 최적화</li>
</ol>

<h2 id="22-backgroud">2.2 Backgroud</h2>

<h3 id="221-5g-네트워크의-에너지-소비-문제">2.2.1 5G 네트워크의 에너지 소비 문제</h3>
<ul>
  <li>기지국(Base Station, BS)이 전체 에너지 소비의 70%를 차지하며 지속적으로 증가할 전망이다.
    <ul>
      <li>주요 원인: Massive MIMO와 같은 기술은 데이터 처리량을 증가시키지만, 더 많은 전력을 요구</li>
      <li>기존 최적화 방법: Sleep mode, Lean Carrier Design, ML 기반 에너지 모델링 등</li>
    </ul>
  </li>
</ul>

<h3 id="222-디지털트윈과-aimm-시뮬레이터">2.2.2 디지털트윈과 AIMM 시뮬레이터</h3>
<ul>
  <li>
    <p>디지털 트윈은 실제 네트워크를 복제한 가상 환경으로, AI/ML 모델을 안전하게 학습하고 테스트할 수 있게 한다.</p>
  </li>
  <li>
    <p>AIMM 시뮬레이터의 강원</p>
    <ul>
      <li>기지국과 사용자 장치 간의 상호작용을 정밀히 재현</li>
      <li>빠른 실행 속도(평균 2초 실행 시간)로 ML 모델 훈련과 테스트 지원</li>
    </ul>
  </li>
</ul>

<h2 id="23-methods">2.3 Methods</h2>

<h3 id="231-aimm-시뮬레이터-구성">2.3.1 AIMM 시뮬레이터 구성</h3>
<ul>
  <li>시뮬레이터의 특징
    <ul>
      <li>3D 모델링: 기지국과 UE를 공간적으로 배치하고, Pathloss를 계산</li>
      <li>SINR 및 CQI 계산: 신호 품질을 정밀히 추정하여 사용자 데이터 전송 품질 분석</li>
      <li>Spectral Efficiency(SE) 및 처리량(\(T_{i,j}\)) 계산</li>
    </ul>
  </li>
  <li>주요 수식</li>
</ul>

<p><strong>SINR 계산</strong></p>

\[SINR_{i,j} = \frac{P_{Rx,i,j}}{P_{inter,i} + P_{noise,i}}\]

<p>\(P_{R_{x_{i,j}}}\): 사용자 \(i\)가 기지국 \(j\)로부터 받은 신호 전력</p>

<p>\(P_{inter_{i}}\): 사용자 \(i\)가 경험하는 간섭 전력</p>

<p>\(P_{noise_{i}}\): 사용자 \(i\)가 경험하는 잡음 전력</p>

<p><strong>Throughput 계산</strong></p>

\[T_{i,j} = SE_{i,j} \times B\]

<p>\(SE_{i,j}\): 사용자와 기지국 간의 Spectral Efficiency</p>

<p>\(B\): 사용 가능한 대역폭(논문에서는 10MHz 사용)</p>

<h3 id="232-기지국-전력-소비-모델">2.3.2 기지국 전력 소비 모델</h3>

<ul>
  <li>AIMM 시뮬레이터는 기존 전력 소비 모델을 확장하여 기지국의 에너지 소비를 정밀히 계산한다.</li>
</ul>

<p><strong>전력 소비 수식</strong></p>

\[P_{BS} = N_{TRX} \times N_{ant} \times (P_0 + f(P_{T_{x}}))\]

<p>\(P_{BS}\): 기지국의 총 전력 소비량(\(W\))</p>

<p>\(f(P_{T_{x}})\): 송신 전력에 따른 동적 전력 소비</p>

<p><strong>송신 전력 소비 함수</strong></p>

\[f(P_{Tx}) = \frac{P_{Tx}}{\eta P_{PA} \cdot (1 - \sigma_{feed})} + P_{RF} + P_{BB}\]

<p>\(\eta_{PA}\): 전력 증폭기 효율(논문에서는 0.311 사용)</p>

<p>\(\sigma_{feed}\): Feeder loss, 송신신호가 기지국 안테나로 전달되는 동안 발생하는 전력 손실(논문에서는 0.5 사용)</p>

<p>\(P_{RF}\): RF 처리 전력, RF 신호를 처리학 위해 필요한 전력(논문에서는 12.9W 사용)</p>

<p>\(P_{BB}\): 베이스밴드 처리 전력(논문에서는 29.6W 사용)</p>

<h3 id="233-실험-설정">2.3.3 실험 설정</h3>
<ul>
  <li>시나리오 구성
    <ul>
      <li>19개의 기지국을 기반으로 아래의 그림과 같이 네 가지 주요 시나리오를 설정하였다.</li>
      <li>송신 전력을 0 - 20W로 조정하여 에너지 소비와 네트워크 성능을 분석하였다.</li>
    </ul>
  </li>
</ul>

<p align="center">
  <img src="/assets/img/blog/aimm/network-topology.png" alt="Topology of this paper" width="50%" />
  <img src="/assets/img/blog/aimm/scenario-table.png" alt="BS Scenario Definitions" width="40%" />
</p>

<h2 id="24-results-and-discussion">2.4 Results and Discussion</h2>

<p><img src="/assets/img/blog/aimm/graph.png" alt="Result" /></p>

<h3 id="241-송신-전력과-네트워크-성능">2.4.1 송신 전력과 네트워크 성능</h3>

<ul>
  <li>송신 전력 감소는 간섭을 줄여 SINR을 향상시킬 수 있으며, 일부 시나리오에서 네트워크 throughput이 증가하였다.
    <ul>
      <li>간섭 감소로 인해 네트워크 성능이 특정 송신 전력에서 최적화되는 결과를 확인할 수 있었다.</li>
    </ul>
  </li>
</ul>

<h3 id="242-에너지-효율성ee">2.4.2 에너지 효율성(EE)</h3>

<ul>
  <li>에너지 효율성 계산:</li>
</ul>

\[EE = \frac{T_s \cdot \tau}{P_{Cs}}\]

<p>\(T_s\): 네트워크의 총 처리량</p>

<p>\(PC_{s}\): 네트워크 평균 전력 소비</p>

<p class="note">송신 전력 조정 및 기지국 sleep 모드를 통해 EE가 최대 14.8% 향상</p>

<h3 id="243-스펙트럼-효율성se됨">2.4.3 스펙트럼 효율성(SE)됨</h3>

<p class="note">송신 전력 감소 초기에는 SE가 증가하지만, 송신 전력이 너무 낮아지면 데이터 전송량 감소로 인해 SE가 감소</p>

<ul>
  <li>최적의 송신 전력 설정이 필요
s</li>
</ul>

<h3 id="244-미래-네트워크-설계-시-주의할-점">2.4.4 미래 네트워크 설계 시 주의할 점</h3>

<ul>
  <li>EE와 SE 간 트레이드오프를 고려한 최적화 전략이 중요</li>
  <li>AIMM 시뮬레이터는 디지털 트윈 환경에서 빠르고 정밀한 실험을 지원하며, 차세대 네트워크 설계에 중요한 도구로 평가됨</li>
</ul>

<h2 id="25-conclusion">2.5 Conclusion</h2>

<ul>
  <li>AIMM 시뮬레이터는 에너지 소비와 성능 간 trade-off를 분석하고 최적화를 지원하는 강력한 시뮬레이터임</li>
  <li>디지털 트윈 환경에서 AI 및 ML 모델의 학습과 테스트를 안전하고 효율적으로 수행할 수 있음</li>
  <li>본 논문에서는 에너지 소비와 성능을 동시에 고려한 차세대 네트워크 설계의 중요성을 강조</li>
</ul>

<hr />

<h1 id="3-take-away">3. Take Away</h1>

<ul>
  <li>AIMM 시뮬레이터 구현 파라미터 현황</li>
  <li>본 논문에서 임의로 정한 파라미터들(예. \(\sigma_{feed}\) 등)을 고려하여 후속 연구 진행</li>
</ul>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: AI-ready energy modeling framework (AIMM) for next-generation RAN, using system-level simulation to optimize energy consumption in 5G/6G networks.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/pawel-czerwinski-848z7lbCjoo-unsplash.jpg" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/pawel-czerwinski-848z7lbCjoo-unsplash.jpg" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">OSC AIMLFW Installation</title><link href="https://corbinkim.github.io/blog/2024/10/04/OSC-AIMLFW-Installation/" rel="alternate" type="text/html" title="OSC AIMLFW Installation" /><published>2024-10-04T00:00:00+00:00</published><updated>2024-10-04T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2024/10/04/OSC-AIMLFW-Installation</id><content type="html" xml:base="https://corbinkim.github.io/blog/2024/10/04/OSC-AIMLFW-Installation/"><![CDATA[<!--more-->
<ul class="large-only" id="markdown-toc">
  <li><a href="#o-ran-aimlfw-installation" id="markdown-toc-o-ran-aimlfw-installation">O-RAN AIMLFW Installation</a>    <ul>
      <li><a href="#introduction" id="markdown-toc-introduction">Introduction</a>        <ul>
          <li><a href="#installation" id="markdown-toc-installation">Installation</a></li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h1 id="o-ran-aimlfw-installation">O-RAN AIMLFW Installation</h1>

<h2 id="introduction">Introduction</h2>

<h3 id="installation">Installation</h3>

<ul>
  <li>설치 스크립트 실행</li>
</ul>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>bin/install_traininghost.sh
</code></pre></div></div>

<p><img src="/assets/img/blog/aimlfw_installation/installation_1.png" alt="Fig 1" /></p>

<hr />

<ul>
  <li>10 - 20분 정도 기다린 후 파드가 잘 설치되어 있는지 확인</li>
</ul>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>kubectl get pod -A
</code></pre></div></div>

<p><img src="/assets/img/blog/aimlfw_installation/installation_2.png" alt="Fig 2" /></p>

<hr />

<ul>
  <li>서비스를 확인하여 어떤 포트들이 열려있는지 확인</li>
</ul>

<p><img src="/assets/img/blog/aimlfw_installation/installation_3.png" alt="Fig 3" /></p>

<hr />

<ul>
  <li><code class="language-plaintext highlighter-rouge">32005</code> 포트로 대시보드 들어가보기</li>
</ul>

<p><img src="/assets/img/blog/aimlfw_installation/installation_4.png" alt="Fig 4" /></p>

<hr />

<ul>
  <li>Install Influx DB as datalake</li>
</ul>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>helm repo add bitnami https://charts.bitnami.com/bitnami
helm install my-release bitnami/influxdb --version 5.13.5
kubectl exec -it &lt;pod name&gt; bash
</code></pre></div></div>

<p><img src="/assets/img/blog/aimlfw_installation/installation_5.png" alt="Fig 5" /></p>

<hr />

<ul>
  <li>커맨드를 입력하여 <code class="language-plaintext highlighter-rouge">username</code>, <code class="language-plaintext highlighter-rouge">org name</code>, <code class="language-plaintext highlighter-rouge">org id</code> 그리고 <code class="language-plaintext highlighter-rouge">access token</code> 얻기</li>
</ul>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>cat bitnami/influxdb/influxd.bolt | tr -cd "[:print:]"
</code></pre></div></div>

<p><img src="/assets/img/blog/aimlfw_installation/installation_6.png" alt="Fig 6" /></p>

<p><img src="/assets/img/blog/aimlfw_installation/installation_7.png" alt="Fig 7" /></p>

<hr />

<ul>
  <li>원활한 코드 진행을 위해 별도의 모듈들을 설치해준다.</li>
</ul>

<div class="language-plaintext highlighter-rouge"><div class="highlight"><pre class="highlight"><code>sudo apt install pip
sudo pip3 install pandas
sudo pip3 install influxdb_client
</code></pre></div></div>

<p><img src="/assets/img/blog/aimlfw_installation/installation_8.png" alt="Fig 8" /></p>

<hr />

<p>위의 과정을 마치게 되면 <code class="language-plaintext highlighter-rouge">AIMLFW</code>를 사용할 수 있는 정말 기초적인 준비가 끝나게 된다.</p>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="aimlfw" /><summary type="html"><![CDATA[O-RAN Software Community 프로젝트 AIMLFW 설치 정리]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/pawel-czerwinski-848z7lbCjoo-unsplash.jpg" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/pawel-czerwinski-848z7lbCjoo-unsplash.jpg" xmlns:media="http://search.yahoo.com/mrss/" /></entry><entry><title type="html">Joint Traffic Prediction and Base Station Sleeping for Energy Saving in Cellular Networks</title><link href="https://corbinkim.github.io/blog/2024/09/26/joint-traffic-prediction-and-base-station-sleepiong-for-energy-saving-in-cellular-networks/" rel="alternate" type="text/html" title="Joint Traffic Prediction and Base Station Sleeping for Energy Saving in Cellular Networks" /><published>2024-09-26T00:00:00+00:00</published><updated>2024-09-26T00:00:00+00:00</updated><id>https://corbinkim.github.io/blog/2024/09/26/joint-traffic-prediction-and-base-station-sleepiong-for-energy-saving-in-cellular-networks</id><content type="html" xml:base="https://corbinkim.github.io/blog/2024/09/26/joint-traffic-prediction-and-base-station-sleepiong-for-energy-saving-in-cellular-networks/"><![CDATA[<!--more-->

<ul class="large-only" id="markdown-toc">
  <li><a href="#1-why-this-paper" id="markdown-toc-1-why-this-paper">1. Why this paper?</a></li>
  <li><a href="#2-paper-summary" id="markdown-toc-2-paper-summary">2. Paper Summary</a>    <ul>
      <li><a href="#21-introduction" id="markdown-toc-21-introduction">2.1 Introduction</a></li>
      <li><a href="#22-network-model-and-problem-formulation" id="markdown-toc-22-network-model-and-problem-formulation">2.2 Network Model and Problem Formulation</a>        <ul>
          <li><a href="#22a-traffic-model" id="markdown-toc-22a-traffic-model">2.2.A Traffic Model</a></li>
          <li><a href="#22b-problem-model" id="markdown-toc-22b-problem-model">2.2.B Problem Model</a></li>
          <li><a href="#22c-problem-formulation" id="markdown-toc-22c-problem-formulation">2.2.C Problem Formulation</a></li>
        </ul>
      </li>
      <li><a href="#3-our-proposed-algorithm" id="markdown-toc-3-our-proposed-algorithm">3. Our Proposed Algorithm</a>        <ul>
          <li><a href="#3a-cellular-traffic-prediction" id="markdown-toc-3a-cellular-traffic-prediction">3.A Cellular traffic prediction</a></li>
          <li><a href="#3b-base-station-sleeping" id="markdown-toc-3b-base-station-sleeping">3.B Base station sleeping</a></li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

<h2 id="1-why-this-paper">1. Why this paper?</h2>
<ul>
  <li>졸업 논문 레퍼런스</li>
  <li>트래픽 예측을 발전시킬 수 있는 연구</li>
  <li>MINLP 문제 연습</li>
</ul>

<hr />

<h2 id="2-paper-summary">2. Paper Summary</h2>

<h3 id="21-introduction">2.1 Introduction</h3>
<p>대부분의 기지국들은 미리 정해둔 threshold 값보다 traffic load가 작아지게 되면 Sleep mode로 전환하는 방식으로 에너지를 절약하고 있다. 논문에 따르면 17% 정도의 기지국들이 하루에 50-99% 정도 low traffic을 가지고 있다.</p>

<p>기지국 Sleeping 알고리즘의 key point는 다음과 같다.</p>
<ol>
  <li>어떤 기지국들이 Sleep mode로 전환되어야 하는가?</li>
  <li>언제 Sleep mode로 전환되어야 하는가?</li>
</ol>

<p>기지국 traffic load의 변동성을 파악할 때, 견고한 traffic prediction은 중요한 역할을 한다.</p>

<p>본 논문에서는 에너지 소비를 최소화하면서 bandwidth budget, spectral efficiency 요구사항 그리고 특히 traffic 요구사항을 만족시키기 위해 traffic load가 적은 기지국을 적절한 간격으로 종료하는 방법을 찾는 것을 목표로 한다.</p>

<ul>
  <li>Traffic prediction
    <ul>
      <li>LSTM 사용</li>
    </ul>
  </li>
  <li>BS Sleeping Problem 최적화
    <ul>
      <li>MINLP 문제 사용</li>
      <li>3-step local search 알고리즘 사용</li>
    </ul>
  </li>
</ul>

<h3 id="22-network-model-and-problem-formulation">2.2 Network Model and Problem Formulation</h3>

<h4 id="22a-traffic-model">2.2.A Traffic Model</h4>
<p><img src="/assets/img/blog/0926/Figure_1.png" alt="Figure1" /></p>

<ul>
  <li>Region: \(\mathcal{D} \in R^2\)</li>
  <li>기지국: \(\mathcal{N} - \{1,2,...,N\}\)</li>
  <li>Traffic Demand Areas(TDA): \(\mathcal{K} - \{1,2,...,K\}\)
    <ul>
      <li>각 TDA는 서로 다른 트래픽 요구사항을 가진 여러명의 사용자들을 포함
        <ul>
          <li>서비스 지역: \(x \in \mathcal{D}\)
            <ul>
              <li>\(\mathcal{D}_{k}\): TDA \(k\)의 서비스 지역</li>
            </ul>
          </li>
          <li>서비스 지역에서 요구하는 트래픽: \(\Phi (x)\)
            <ul>
              <li>\(R_{k}\): TDA \(k\)의 트래픽 요구사항</li>
            </ul>
          </li>
        </ul>
      </li>
    </ul>
  </li>
</ul>

\[\iint_{D_k} \Phi(x) \, d\sigma = R_k
\tag{1}\]

<ul>
  <li>\(h_{k,n}\): BS \(n\)과 TDA \(k\) 사이의 channel gain</li>
  <li>\(b_{k,n}\): TDA \(k\)에 있는 BS \(n\)의 bandwidth</li>
  <li>\(p_{k,n}\): TDA \(k\)에 있는 BS \(n\)의 power</li>
</ul>

<p>이를 이용해서 BS \(n\)과 TDA \(k\) 사이의 transmission rate는 다음과 같이 계산할 수 있다.</p>

\[r_{k,n} = b_{k,n} \log_2 \left[ 1 + \frac{p_{k,n} |h_{k,n}|^2}{b_{k,n} (N_0 + I_{k,n})} \right]
\tag{2}\]

<ul>
  <li>\(N_0\): noise power</li>
  <li>\(I_{k,n}\): interference power
    <ul>
      <li>본 논문에서는 signal processing 기술을 사용하여 \(I_{k,n}\)을 0으로 만들었다 가정</li>
    </ul>
  </li>
</ul>

<p>따라서 \(p_{k.n}\)은 아래와 같이 다시 정리할 수 있다.</p>

\[p_{k,n} = \frac{N_0 b_{k,n}}{|h_{k,n}|^2} \cdot \left(2^{\frac{r_{k,n}}{b_{k,n}}} - 1\right)
\tag{3}\]

<ul>
  <li>\mathcal{K}_{n}: BS \(n\)에 의해 서비스 되는 TDA들의 집합</li>
  <li>Region \(D\)의 총 트래픽 요구사항은 모든 TDA의 트래픽 요구사항의 합과 같다.</li>
</ul>

\[R_D = \sum_{k \in \mathcal{K}} R_k = \sum_{n \in \mathcal{N}} \sum_{k \in \mathcal{K}_n} r_{k,n} = \sum_{n \in \mathcal{N}} r_n
\tag{4}\]

<ul>
  <li>\(r_n\): BS \(n\)에 의해 서비스되는 총 트래픽 요구사항</li>
</ul>

<h4 id="22b-problem-model">2.2.B Problem Model</h4>

<p>밀집된 네트워크에서 총 전력 소모량 \(P_{total}\)은 아래와 같이 나타낼 수 있다.</p>

\[P_{\text{total}} = \sum_{n \in \mathcal{N}} P_f^n + \sum_{n \in \mathcal{N}} P_t^n
\tag{5}\]

<ul>
  <li>\(P_f^n\): BS \(n\)의 fixed power consumption</li>
  <li>\(P_t^n\): BS \(n\)의 transmission power consumption</li>
</ul>

<p>이 때, binary 변수 \(x_n\)을 사용하여 BS \(n\)의 sleep 여부를 나타낸다.</p>

\[x_n =
\begin{cases}
1, &amp; \text{BS } n \text{ is active}, \\
0, &amp; \text{BS } n \text{ is inactive}.
\end{cases}
\tag{6}\]

<p>\(P_f^{n}\)은 BS의 상태에 영향을 받지만 BS가 sleep 상태일 떄엔 무시할 수 있다. 즉, BS가 sleep 모드에서 꺠어나는 데 전력을 소모하더라도, BS가 활성화된 경우에 비해 그 전력은 무시할 수 있을 정도로 작다.</p>

<p>따라서 총 전력 소비량 \(P_{total}\)은 다음과 같이 변환된다.</p>

\[P_{\text{total}} = \sum_{n \in \mathcal{N}} P_f^n x_n + \sum_{n \in \mathcal{N}} \frac{x_n}{\eta_n} \sum_{k \in \mathcal{K}} p_{k,n},
\tag{7}\]

<ul>
  <li>\(\eta_{n}\): Power amplifier efficiency factor</li>
</ul>

<h4 id="22c-problem-formulation">2.2.C Problem Formulation</h4>

<p>우리의 목적은 전체 전력 소모를 최소화하며 practical한 제약사항들을 만족하는 일련의 BS들을 골라내는 것이다.</p>

<ul>
  <li>\(p_n^{max}\): BS n의 최대 transmission power</li>
  <li>\(b_n^{max}\): BS n의 사용 가능한 bandwidth</li>
</ul>

<p>풀어야 할 <code class="language-plaintext highlighter-rouge">최적화 문제</code>는 아래와 같이 나타낼 수 있다.</p>

\[\begin{align}
    \text{minimize} \quad &amp; P_{\text{total}} \\
    \text{s.t.} \quad &amp; C_1: \sum_{k \in \mathcal{K}} p_{k,n} \leq x_n p_n^{\text{max}}, \quad \forall n \in \mathcal{N}, \\
    &amp; C_2: \sum_{k \in \mathcal{K}} b_{k,n} \leq x_n b_n^{\text{max}}, \quad \forall n \in \mathcal{N}, \\
    &amp; C_3: \sum_{n \in \mathcal{N}} r_{k,n} \geq R_k, \quad \forall k \in \mathcal{K}, \\
    &amp; C_4: p_{k,n} \geq \Delta_{k,n} b_{k,n}, \quad \forall k \in \mathcal{K}, \forall n \in \mathcal{N}, \\
    &amp; C_5: \vec{x} \in X, \quad \vec{b} \in \mathbb{R}_+^{K \times N}, \quad \vec{p} \in \mathbb{R}_+^{K \times N}.
\end{align}\]

<ul>
  <li>\(P_{total}\)을 최소화하는 것이 목적
    <ul>
      <li>\(C_1\): 각 BS \(n\)에 대해 사용자 \(k\)의 전력 \(p_{k,n}\)의 합이 BS \(n\)의 최대 전력 $ㅔp_n^{max}\(를 초과하지 않아야 하며, 이는\)x_n$$의 활성화 여부에 따라 달라짐</li>
      <li>\(C_2\): 각 BS \(n\)에 대해 사용자 \(k\)의 bandwidth \(b_{k.n}\)의 합이 노드 \(n\)의 최대 bandwidth \(b_n^{max}\)을 초과하지 않아야 하며, 이는 \(x_n\)의 활성화 여부에 따라 달라짐</li>
      <li>\(C_3\): 각 사용자 \(k\)의 총 데이터 전송 속도 \(r_{k,n}\)은 사용자 요구 rate \(R_k\) 이상이여야 함</li>
      <li>\(C_4\): 각 사용자 \(k\)와 노드 \(n\)에서 할당된 전력 \(p_{k,n}\)은 할당된 대역폭 \(b_{k,n}\)에 비례하여 \(\delta_{k,n}\)으로 제한됨</li>
      <li>\(C_5\): \(\overrightarrow{x}\)는 정의된 집합 \(\mathbb{X}\)에 속하고, \(\overrightarrow{b}\)와 \(\overrightarrow{p}\)는 음수가 아닌 실수 공간에 속해야 함</li>
    </ul>
  </li>
</ul>

<p>Service area의 트래픽 요구사항 distribution은 인구 이동에 따라 하루에도 수십번씩 바뀌게 된다. 따라서 식 (8)에 정의되어 있는 문제를 풀기 위해선 각 TDA의 future rate requirement를 예측해야 한다. 이를 위해 단일 BS에 모두 시계열 예측을 사용하게 된다.</p>

<ul>
  <li>수집된 데이터
    <ul>
      <li>주어진 데이터셋은 \(R_{BS} = \{R_{B1}, R_{B2}, ..., R_{BN}\}\)로, 여기서 각 \(R_{B_{n}} = \{r_1^{n}, r_2^{n}, ..., r_t^{n}\}\)는 기지국 \(n\)의 트래픽 데이터를 저장</li>
      <li>\(delta\)는 데이터가 수집된 시간 간격을 의미</li>
    </ul>
  </li>
  <li>One-step 예측
    <ul>
      <li>$가\delta$$ 간격에서의 트래픽을 예측하는 것은 one-step 예측으로 간주</li>
    </ul>
  </li>
  <li>Multi-step 예측
    <ul>
      <li>기지국의 on/off switching에 관련된 예측에서는 multi-step 예측이 필요함. 이는 일반적으로 트래픽 데이터의 시간 간격 \(\delta\)가 기지국을 켜고 끄는 허용 가능한 시간 간격보다 훨씬 작기 때문</li>
    </ul>
  </li>
  <li>예측 시간 간격:
    <ul>
      <li>Multi-step 예측에서는 \(z\)개의 time step을 예측해야 하며, 이 때 예측 간격은 \(T_{pred} = \delta z\)로 정의</li>
    </ul>
  </li>
  <li>전체 트래픽 수요 계산:
    <ul>
      <li>시간 구간 \([t, t+T_{pred}]\) 동안 지역 전체의 트래픽 수요는 다음과 같이 계산</li>
    </ul>

\[R_D = \sum_{n \in \mathcal{N}} \sum_{j=t+1}^{t+z} \frac{r_j^n}{z}\]
  </li>
</ul>

<h3 id="3-our-proposed-algorithm">3. Our Proposed Algorithm</h3>
<h4 id="3a-cellular-traffic-prediction">3.A Cellular traffic prediction</h4>
<h4 id="3b-base-station-sleeping">3.B Base station sleeping</h4>
<p>Power와 bandwidth allocation 문제를 먼저 풀어야 한다. 주어진 기지국 집합에서 정의된 \(TDA_{k}\)의 기본 속도 요구사항보다 마진을 더해 더 높은 \(R'_{k}\)를 만족시켜야 한다. 이 문제는 식 (13)으로 수식화되며, 이를 통해 power와 bandwidth 할당을 수행하게 된다.</p>

\[\begin{aligned}
\text{find} &amp; \quad \overrightarrow{b}, \overrightarrow{p} \\
\text{s.t.} &amp; \quad \sum_{n \in \mathcal{N}'} b_n T_{k,n} = R_k', \quad \forall k \in \mathcal{K}, \\
&amp; \quad C_1, C_2, C_1 \text{ in (8)}.
\end{aligned},
\tag{13}\]

<p>만약 식 (13)에 대한 실현 가능한 해가 존재한다면, 선택된 기지국 집합 (\(N_s = \{ n \mid x_{n}=1 \}\)) 이 bandwidth 및 power 제한 이내에서 TDA의 속도 요구사항을 충족할 수 있다 말할 수 있다. 식 (13)은 <code class="language-plaintext highlighter-rouge">convex optimization algorithm</code>으로 해결할 수 있다. 또한 이와 동일한 방식으로 (8) 식도 해결할 수 있다.</p>

<p>이후, <code class="language-plaintext highlighter-rouge">Local search</code> 알고리즘을 통해 최적의 기지국 하위 집합을 찾는다. 알고리즘은 <code class="language-plaintext highlighter-rouge">Open</code>, <code class="language-plaintext highlighter-rouge">Close</code>, <code class="language-plaintext highlighter-rouge">Exchange</code> 이 세가지 단계로 이루어져 있으며, 각각의 단계에서 시스템의 power 소비를 업데이트하여 기지국을 추가하거나 제거하거나 교환하는 방식으로 최적의 구성을 찾는다.</p>]]></content><author><name>Corbin Kim</name><email>gkim26@ncsu.edu</email></author><category term="paper" /><summary type="html"><![CDATA[Paper review: LSTM-based traffic prediction for base station sleeping in cellular networks, enabling energy-efficient operation by selectively deactivating underutilized base stations.]]></summary><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://corbinkim.github.io/assets/img/blog/prediction_sleep/Prediction_Sleep.png" /><media:content medium="image" url="https://corbinkim.github.io/assets/img/blog/prediction_sleep/Prediction_Sleep.png" xmlns:media="http://search.yahoo.com/mrss/" /></entry></feed>