🍎 μ‹ν’ˆμ—μ„œ AI κ³΅λΆ€ν•˜κΈ°

Heterogeneous Graph Attention Network의 이해와 ν™œμš© λ³Έλ¬Έ

Food_Health_AI/μΆ”μ²œ μ‹œμŠ€ν…œ

Heterogeneous Graph Attention Network의 이해와 ν™œμš©

FoodAI 2025. 4. 7. 22:09

πŸ’‘λ“€μ–΄κ°€λ©°

μ˜€λŠ˜λ‚  μš°λ¦¬λŠ” μ‹ν’ˆ, μ˜μ–‘μ†Œ, μš”λ¦¬λ²• λ“± λ‹€μ–‘ν•œ μš”μ†Œκ°€ λ³΅μž‘ν•˜κ²Œ μ–½ν˜€ μžˆλŠ” μ‹ν’ˆ μ •λ³΄μ˜ λ°”λ‹€ 속에 μ‚΄κ³  μžˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ 정보λ₯Ό 효과적으둜 λΆ„μ„ν•˜κ³  ν™œμš©ν•˜κΈ° μœ„ν•΄μ„œλŠ” λ‹¨μˆœν•œ 데이터 뢄석을 λ„˜μ–΄μ„  μ§€λŠ₯적인 접근법이 ν•„μš”ν•©λ‹ˆλ‹€. 이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬(Heterogeneous Graph Attention Network)λŠ” μ„œλ‘œ λ‹€λ₯Έ μœ ν˜•μ˜ 데이터 κ°„μ˜ λ³΅μž‘ν•œ 관계λ₯Ό λͺ¨λΈλ§ν•˜λŠ” κ°•λ ₯ν•œ λ„κ΅¬λ‘œ, μ˜μ–‘ 및 μ‹ν’ˆ λΆ„μ•Όμ—μ„œ 혁λͺ…적인 λ°œμ „μ„ κ°€μ Έμ˜¬ 수 μžˆλŠ” κΈ°μˆ μž…λ‹ˆλ‹€. 이 κΈ€μ—μ„œλŠ” 이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬μ˜ κΈ°λ³Έ κ°œλ…λΆ€ν„° μ˜μ–‘ 정보 뢄석에 μ–΄λ–»κ²Œ μ μš©ν•  수 μžˆλŠ”μ§€ μ‚΄νŽ΄λ³΄κ² μŠ΅λ‹ˆλ‹€.


I. Heterogeneous Information Network(HIN) μ΄ν•΄ν•˜κΈ°

Heterogeneous Information Network (HIN, 이기쒅 정보 λ„€νŠΈμ›Œν¬)λŠ” μ„œλ‘œ λ‹€λ₯Έ μœ ν˜•(νƒ€μž…)의 λ…Έλ“œμ™€ μ—£μ§€λ‘œ κ΅¬μ„±λœ κ·Έλž˜ν”„λ₯Ό λ§ν•©λ‹ˆλ‹€. 일반적인 κ·Έλž˜ν”„μ™€ 달리, 이기쒅 κ·Έλž˜ν”„μ—μ„œλŠ” λ…Έλ“œμ™€ μ—£μ§€κ°€ λ‹€μ–‘ν•œ μœ ν˜•μ„ κ°€μ§ˆ 수 μžˆμ–΄ λ³΅μž‘ν•œ 싀세계 데이터λ₯Ό 더 μ •ν™•ν•˜κ²Œ ν‘œν˜„ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

 

이기쒅 λ„€νŠΈμ›Œν¬μ˜ νŠΉμ„±

λ‹€μ–‘ν•œ 관계 ν‘œν˜„ κ°€λŠ₯

  • 같은 λ…Έλ“œλ„ λ‹€μ–‘ν•œ 관계λ₯Ό κ°€μ§ˆ 수 있음 (예: 페이슀뢁과 νŠΈμœ„ν„° 같은 μ„œλ‘œ λ‹€λ₯Έ ν”Œλž«νΌμ—μ„œμ˜ 관계)
  • μ˜μ–‘ λΆ„μ•Όμ—μ„œλŠ” μŒμ‹-μ˜μ–‘μ†Œ, μŒμ‹-쑰리법, μ˜μ–‘μ†Œ-κ±΄κ°•νš¨κ³Ό λ“± λ‹€μ–‘ν•œ 관계 λͺ¨λΈλ§ κ°€λŠ₯

메타 패슀λ₯Ό ν†΅ν•œ 정보 μΆ”μΆœ

  • λ…Έλ“œ κ°„ 관계λ₯Ό 톡해 λ‹€λ₯Έ 정보λ₯Ό μΆ”μΆœ κ°€λŠ₯
  • 예: 배우-μ˜ν™”-배우(A-M-A) 관계 λ˜λŠ” 감독-μ˜ν™”-감독(D-M-D) 관계
  • μ˜μ–‘ λΆ„μ•Όμ—μ„œλŠ” μŒμ‹-μ˜μ–‘μ†Œ-κ±΄κ°•νš¨κ³Όμ™€ 같은 메타 패슀 ν™œμš© κ°€λŠ₯

μ‹ν’ˆ μ˜μ–‘ λΆ„μ•Ό 적용 사둀

  • λ ˆμ‹œν”Ό-재료-μ˜μ–‘μ†Œ λ„€νŠΈμ›Œν¬: μš”λ¦¬λ²•, μ‹μž¬λ£Œ, μ˜μ–‘μ†Œ κ°„μ˜ λ³΅μž‘ν•œ 관계 λͺ¨λΈλ§
  • μ‚¬μš©μž-μŒμ‹-κ±΄κ°•μƒνƒœ λ„€νŠΈμ›Œν¬: κ°œμΈν™”λœ μ˜μ–‘ μΆ”μ²œ μ‹œμŠ€ν…œ ꡬ좕
  • μ‹ν’ˆ-μ•Œλ ˆλ₯΄κΈ°-증상 λ„€νŠΈμ›Œν¬: μ‹ν’ˆ μ•ˆμ „μ„± 및 μ•Œλ ˆλ₯΄κΈ° 관리 μ‹œμŠ€ν…œ

II. 이기쒅 λ„€νŠΈμ›Œν¬μ˜ ꡬ쑰와 ν™œμš©

Side Information ν™œμš©

이기쒅 λ„€νŠΈμ›Œν¬μ—μ„œλŠ” μ£Όμš” 데이터 외에도 뢀가적인 정보(Side Information)λ₯Ό ν•¨κ»˜ ν™œμš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€. μ˜μ–‘ λΆ„μ•Όμ—μ„œλŠ” λ‹€μŒκ³Ό 같은 λΆ€κ°€ 정보λ₯Ό ν™œμš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€:

  • μ‹ν’ˆμ˜ 질감, 색상, ν–₯λ―Έ λ“±μ˜ 감각적 νŠΉμ„±
  • 지역별 μ‹μŠ΅κ΄€ 및 문화적 λ°°κ²½
  • κ³„μ ˆμ„±, 가격, μ ‘κ·Όμ„± λ“±μ˜ μ‹€μš©μ  정보

Side Information은 κ·Έλž˜ν”„ λ„€νŠΈμ›Œν¬λ₯Ό ν™œμš©ν•˜μ—¬ 효과적으둜 μ²˜λ¦¬ν•  수 있으며, κΈ°μ‘΄ GNN(Graph Neural Network)에 이기쒅 νƒ€μž… λ…Έλ“œλ₯Ό μΆ”κ°€ν•˜μ—¬ 더 ν’λΆ€ν•œ 정보 λͺ¨λΈλ§μ΄ κ°€λŠ₯ν•©λ‹ˆλ‹€.

Meta-path 기반 λ°©μ‹μ˜ ν•œκ³„μ 

Meta-path 섀정은 도메인 지식이 ν•„μš”ν•˜κ³ , 이λ₯Ό μ°Ύκ³  μΆ”μΆœν•˜λŠ” μž‘μ—…μ€ μ‹œκ°„μ΄ 많이 μ†Œμš”λ©λ‹ˆλ‹€. 특히 λ‹€μŒκ³Ό 같은 ν•œκ³„κ°€ μžˆμŠ΅λ‹ˆλ‹€:

  • 미리 μ •μ˜λœ path만 ν™œμš© κ°€λŠ₯ν•˜μ—¬ μ•Œλ €μ§€μ§€ μ•Šμ€ νŒ¨ν„΄ 발견이 어렀움
  • 데이터가 계속 λ³€ν™”ν•˜λŠ” μ˜μ–‘ λΆ„μ•Όμ—μ„œλŠ” path μž¬μ •μ˜κ°€ 자주 ν•„μš”
  • Path μ„€μ • μ‹œ μ‚¬μš©λ˜μ§€ μ•ŠλŠ” 데이터 쑴재 (손싀 정보)

III. Graph Attention Network (GAT)의 원리

μ–΄ν…μ…˜  λ©”μ»€λ‹ˆμ¦˜(Attention Mechanism)의 κ°œλ…

κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬λŠ” λ…Έλ“œ κ°„μ˜ μ€‘μš”λ„λ₯Ό ν•™μŠ΅ν•˜λŠ” μ–΄ν…μ…˜ λ©”μ»€λ‹ˆμ¦˜μ„ ν™œμš©ν•©λ‹ˆλ‹€. μ΄λŠ” λ‹€μŒκ³Ό 같은 μ§ˆλ¬Έμ— λ‹΅ν•˜λŠ” κ³Όμ •μž…λ‹ˆλ‹€:

  • μ–΄λ–€ 이웃이 λ‚˜λž‘ μœ μ‚¬ν•œκ°€?
  • μ–΄λ–€ 이웃이 λ‚˜μ—κ²Œ μœ μ΅ν•œ 정보λ₯Ό μ£ΌλŠ”κ°€?

μ˜μ–‘ λΆ„μ•Όμ—μ„œ μ΄λŠ” "μ–΄λ–€ μ‹ν’ˆμ΄ νŠΉμ • μ˜μ–‘μ†Œ ν”„λ‘œν•„κ³Ό μœ μ‚¬ν•œκ°€?" λ˜λŠ” "μ–΄λ–€ μ‹μž¬λ£Œκ°€ νŠΉμ • 건강 νš¨κ³Όμ— 더 큰 영ν–₯을 λ―ΈμΉ˜λŠ”κ°€?"와 같은 질문으둜 해석될 수 μžˆμŠ΅λ‹ˆλ‹€.

κ°€μ€‘μΉ˜ 계산 방식

GATμ—μ„œλŠ” λ‹€μŒκ³Ό 같은 λ°©μ‹μœΌλ‘œ κ°€μ€‘μΉ˜λ₯Ό κ³„μ‚°ν•©λ‹ˆλ‹€:

  • Coefficient matrix ν™œμš©: λ…Έλ“œ κ°„ 관계λ₯Ό μˆ˜μΉ˜ν™”

 

  • ν•™μŠ΅ κ°€λŠ₯ν•œ νŒŒλΌλ―Έν„°(Learnable parameter) μ‚¬μš©

 

  • Multi-Head Attention으둜 λ‹€μ–‘ν•œ νŠΉμ„± κ³ λ €

예λ₯Ό λ“€μ–΄, μ˜μ–‘ λ°μ΄ν„°μ—μ„œλŠ” 비타민 C의 ν•¨λŸ‰, λ‹¨λ°±μ§ˆ ꡬ성, μ§€λ°© μœ ν˜• λ“± λ‹€μ–‘ν•œ νŠΉμ„±μ„ λ™μ‹œμ— κ³ λ €ν•˜μ—¬ μ‹ν’ˆ κ°„μ˜ 관계λ₯Ό ν•™μŠ΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.


IV. Meta Path 기반 이웃 μ •μ˜

Meta path의 κ°œλ…

Meta pathλŠ” λ…Έλ“œμ˜ νƒ€μž…μ— λ”°λ₯Έ 경둜둜, λ³΅μž‘ν•œ 관계λ₯Ό ν‘œν˜„ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄:

  • 각 λ…Έλ“œλŠ” λ ˆμ‹œν”Ό, 재료, μ˜μ–‘μ†Œ, κ±΄κ°•νš¨κ³Ό λ“± 의미λ₯Ό κ°€μ§„ λ…Έλ“œ νƒ€μž…μ΄ 있음
  • 각 λ…Έλ“œλŠ” μžμ‹ μ˜ νƒ€μž…μ— 따라 μ—°κ²°λ˜λŠ” κ·Έλž˜ν”„ ꡬ쑰λ₯Ό λ³΄μž„
  • νŠΉμ • 의미λ₯Ό 내포할 수 μžˆλŠ” pathλ₯Ό meta path둜 μ •μ˜

μ˜μ–‘ λΆ„μ•Ό μ˜ˆμ‹œ:

  • 재료-λ ˆμ‹œν”Ό-재료(I-R-I): μœ μ‚¬ν•œ μš”λ¦¬μ— μ‚¬μš©λ˜λŠ” μž¬λ£Œλ“€
  • μ˜μ–‘μ†Œ-μ‹ν’ˆ-μ˜μ–‘μ†Œ(N-F-N): μ˜μ–‘ ν”„λ‘œν•„μ΄ μœ μ‚¬ν•œ μ‹ν’ˆλ“€
  • μ‚¬μš©μž-λ ˆμ‹œν”Ό-μ˜μ–‘μ†Œ-κ±΄κ°•νš¨κ³Ό(U-R-N-H): μ‚¬μš©μž μ„ ν˜Έ μš”λ¦¬μ˜ 건강상 이점

λ…Έλ“œ νƒ€μž…λ³„ μ„ ν˜• λ³€ν™˜

이기쒅 κ·Έλž˜ν”„μ—μ„œλŠ” 각 λ…Έλ“œ νƒ€μž…λ³„λ‘œ λ‹€λ₯Έ νŠΉμ„± 곡간을 κ°€μ§ˆ 수 μžˆμ–΄, νƒ€μž…λ³„ μ„ ν˜• λ³€ν™˜μ΄ ν•„μš”ν•©λ‹ˆλ‹€:

  • κ·Έλž˜ν”„λŠ” μœ μ €-λ ˆμ‹œν”Ό-μ›μž¬λ£Œ-μ˜μ–‘μ„±λΆ„-λ ˆμ‹œν”Ό 관계 λ“± λ‹€μ–‘ν•œ κ΄€κ³„λ‘œ 이루어짐
  • 각 λ…Έλ“œμ˜ νƒ€μž…μ— 따라 μ„ ν˜•λ³€ν™˜μ„ 거치며 νŠΉμ„± μΆ”μΆœ
  • 각 λ…Έλ“œκ°€ κ°€μ§€λŠ” μƒμ΄ν•œ κ³΅κ°„μ˜ μž„λ² λ”©μ„ λ…Έλ“œμ™€ μƒκ΄€μ—†λŠ” κ³΅κ°„μœΌλ‘œ λ³€ν™˜

μ„œλΈŒκ·Έλž˜ν”„ 생성과 μ–΄ν…μ…˜ 계산

Meta path에 따라 μ„œλΈŒκ·Έλž˜ν”„λ₯Ό μƒμ„±ν•˜κ³ , νƒ€κ²Ÿ λ…Έλ“œμ™€ μ†ŒμŠ€ λ…Έλ“œ κ°„μ˜ μ–΄ν…μ…˜ 점수λ₯Ό κ³„μ‚°ν•©λ‹ˆλ‹€:

  • μ •μ˜λœ 관계(예: λ ˆμ‹œν”Ό-재료)에 λŒ€ν•œ μ–΄ν…μ…˜ 벑터 생성
  • ν•™μŠ΅ κ°€λŠ₯ν•œ κ°€μ€‘μΉ˜λ‘œ λ…Έλ“œ κ°„ μ€‘μš”λ„ 계산
  • LeakyReLU λ“±μ˜ ν™œμ„±ν™” ν•¨μˆ˜λ‘œ λΉ„μ„ ν˜•μ„± μΆ”κ°€

μ˜μ–‘ λΆ„μ„μ—μ„œλŠ” 이λ₯Ό 톡해 "이 μš”λ¦¬λ²•μ—μ„œ κ°€μž₯ μ€‘μš”ν•œ μ˜μ–‘μ†ŒλŠ” 무엇인가?", "이 μ˜μ–‘μ†Œλ₯Ό μœ„ν•œ 졜적의 μ‹ν’ˆ 쑰합은 무엇인가?"와 같은 μ§ˆλ¬Έμ— λŒ€λ‹΅ν•  수 μžˆμŠ΅λ‹ˆλ‹€.


V. μ˜μ–‘ 뢄석을 μœ„ν•œ 이기쒅 κ·Έλž˜ν”„ λͺ¨λΈ κ΅¬ν˜„

파이썬 κ΅¬ν˜„ μ˜ˆμ‹œ

이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬λ₯Ό 파이썬으둜 κ΅¬ν˜„ν•˜λŠ” κΈ°λ³Έ μ½”λ“œμž…λ‹ˆλ‹€:

import torch
import torch.nn as nn
import torch.nn.functional as F

class SemanticAttention(nn.Module):
    def __init__(self, in_size, hidden_size=128):
        super(SemanticAttention, self).__init__()
        self.project = nn.Sequential(
            nn.Linear(in_size, hidden_size),
            nn.Tanh(),
            nn.Linear(hidden_size, 1, bias=False)
        )
        
    def forward(self, z):
        w = self.project(z)
        beta = torch.softmax(w, dim=1)
        return (beta * z).sum(1)

class HANLayer(nn.Module):
    def __init__(self, meta_paths, in_size, out_size, layer_num_heads, dropout):
        super(HANLayer, self).__init__()
        self.gat_layers = nn.ModuleList()
        
        for i in range(len(meta_paths)):
            self.gat_layers.append(GATConv(in_size, out_size, layer_num_heads,
                                           dropout, dropout, activation=F.elu))
        
        self.semantic_attention = SemanticAttention(in_size=out_size * layer_num_heads)
        self.meta_paths = list(tuple(meta_path) for meta_path in meta_paths)
        
    def forward(self, g, h):
        semantic_embeddings = []
        
        for i, meta_path in enumerate(self.meta_paths):
            new_g = construct_meta_path_graph(g, meta_path)
            semantic_embeddings.append(self.gat_layers[i](new_g, h).flatten(1))
            
        return self.semantic_attention(torch.stack(semantic_embeddings, dim=1))

μ˜μ–‘ 뢄석 μ‹œμŠ€ν…œ ꡬ좕 κ³Όμ •

μ˜μ–‘ 뢄석을 μœ„ν•œ 이기쒅 κ·Έλž˜ν”„ μ‹œμŠ€ν…œμ„ κ΅¬μΆ•ν•˜λŠ” 과정은 λ‹€μŒκ³Ό κ°™μŠ΅λ‹ˆλ‹€:

  • 데이터 μˆ˜μ§‘: μ‹ν’ˆ DB, μ˜μ–‘μ„±λΆ„ν‘œ, λ ˆμ‹œν”Ό 데이터 λ“± λ‹€μ–‘ν•œ μ†ŒμŠ€μ—μ„œ 데이터 확보
  • λ…Έλ“œ μ •μ˜: μ‹ν’ˆ, μ˜μ–‘μ†Œ, λ ˆμ‹œν”Ό, μ‚¬μš©μž, κ±΄κ°•μƒνƒœ λ“± λ‹€μ–‘ν•œ λ…Έλ“œ νƒ€μž… μ„€μ •
  • 관계 μ •μ˜: μ‹ν’ˆ-μ˜μ–‘μ†Œ ν•¨μœ λŸ‰, λ ˆμ‹œν”Ό-μ‹ν’ˆ 포함 관계, μ‚¬μš©μž-λ ˆμ‹œν”Ό μ„ ν˜Έλ„ λ“±
  • 메타 패슀 섀계: μ˜μ–‘ 뢄석에 μœ μš©ν•œ 의미 μžˆλŠ” 패슀 μ •μ˜
  • λͺ¨λΈ ν•™μŠ΅: κ΅¬μΆ•λœ λ°μ΄ν„°λ‘œ 이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬ ν•™μŠ΅

ν™œμš© κ°€λŠ₯ 사둀

Heterogeneous Graph Attention Networkλ₯Ό ν™œμš©ν•˜μ—¬ μ˜μ–‘ 뢄석에 μ ‘λͺ©ν•  수 μžˆλŠ” μ˜ˆμ‹œλ‘œλŠ” λ‹€μŒκ³Ό 같이 생각해 λ³Ό 수 μžˆμŠ΅λ‹ˆλ‹€:

  • κ°œμΈν™”λœ 식단 μΆ”μ²œ: μ‚¬μš©μžμ˜ 건강 μƒνƒœ, μ„ ν˜Έλ„, μ˜μ–‘ μš”κ΅¬μ‚¬ν•­μ„ κ³ λ €ν•œ 졜적의 식단 μΆ”μ²œ
  • μ˜μ–‘μ†Œ μƒν˜Έμž‘μš© 뢄석: λ³΅μž‘ν•œ μ˜μ–‘μ†Œ κ°„ μƒν˜Έμž‘μš©μ„ λͺ¨λΈλ§ν•˜μ—¬ μ˜μ–‘ κ· ν˜• μ΅œμ ν™”
  • λŒ€μ²΄ μ‹ν’ˆ μΆ”μ²œ: μ•Œλ ˆλ₯΄κΈ°λ‚˜ 식이 μ œν•œμ΄ μžˆλŠ” 경우, μœ μ‚¬ν•œ μ˜μ–‘ ν”„λ‘œν•„μ„ κ°€μ§„ λŒ€μ²΄ μ‹ν’ˆ μΆ”μ²œ
  • μ‹ν’ˆ νŠΈλ Œλ“œ 예츑: μ‚¬μš©μž μ„ ν˜Έλ„μ™€ μ˜μ–‘ μš”κ΅¬μ‚¬ν•­μ„ 기반으둜 미래 μ‹ν’ˆ νŠΈλ Œλ“œ 예츑

IV. 결둠 🎯

이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬λŠ” μ˜μ–‘ 및 μ‹ν’ˆ λΆ„μ•Όμ˜ λ³΅μž‘ν•œ 데이터λ₯Ό 효과적으둜 뢄석할 수 μžˆλŠ” κ°•λ ₯ν•œ λ„κ΅¬μž…λ‹ˆλ‹€. μ‹ν’ˆ, μ˜μ–‘μ†Œ, λ ˆμ‹œν”Ό, 건강 효과 λ“± λ‹€μ–‘ν•œ μœ ν˜•μ˜ λ…Έλ“œ κ°„ 관계λ₯Ό λͺ¨λΈλ§ν•¨μœΌλ‘œμ¨, λ‹¨μˆœν•œ λ°μ΄ν„°λ² μ΄μŠ€ μΏΌλ¦¬λ‚˜ 톡계 λΆ„μ„μœΌλ‘œλŠ” λ°œκ²¬ν•˜κΈ° μ–΄λ €μš΄ νŒ¨ν„΄κ³Ό 톡찰을 얻을 수 μžˆμŠ΅λ‹ˆλ‹€.

특히 μ–΄ν…μ…˜ λ©”μ»€λ‹ˆμ¦˜μ„ 톡해 각 κ΄€κ³„μ˜ μ€‘μš”λ„λ₯Ό ν•™μŠ΅ν•˜κ³ , 메타 패슀λ₯Ό 톡해 의미 μžˆλŠ” 관계λ₯Ό μ •μ˜ν•¨μœΌλ‘œμ¨, 더 μ •ν™•ν•˜κ³  λ§₯락에 λ§žλŠ” 뢄석이 κ°€λŠ₯ν•©λ‹ˆλ‹€. μ΄λŠ” κ°œμΈν™”λœ μ˜μ–‘ μΆ”μ²œ, 식단 μ΅œμ ν™”, μ‹ν’ˆ νŠΈλ Œλ“œ 예츑 λ“± λ‹€μ–‘ν•œ μ‘μš© 뢄야에 ν™œμš©λ  수 μžˆμŠ΅λ‹ˆλ‹€.

μ•žμœΌλ‘œ 빅데이터와 인곡지λŠ₯ 기술의 λ°œμ „κ³Ό ν•¨κ»˜, 이기쒅 κ·Έλž˜ν”„ μ–΄ν…μ…˜ λ„€νŠΈμ›Œν¬λŠ” μ˜μ–‘ κ³Όν•™κ³Ό μ‹ν’ˆ 산업에 더 λ§Žμ€ ν˜μ‹ μ„ κ°€μ Έμ˜¬ κ²ƒμœΌλ‘œ κΈ°λŒ€λ©λ‹ˆλ‹€. μ‹ν’ˆκ³Ό κ±΄κ°•μ˜ λ³΅μž‘ν•œ 관계λ₯Ό 더 깊이 μ΄ν•΄ν•˜κ³ , 개인과 μ‚¬νšŒμ˜ 건강 증진에 κΈ°μ—¬ν•˜λŠ” μ§€λŠ₯ν˜• μ˜μ–‘ μ‹œμŠ€ν…œ ꡬ좕이 κ°€λŠ₯ν•΄μ§ˆ κ²ƒμž…λ‹ˆλ‹€.


μ°Έκ³  λ¬Έν—Œ:

  • Wang, X., Ji, H., Shi, C., Wang, B., Ye, Y., Cui, P., & Yu, P. S. (2019). Heterogeneous Graph Attention Network. The World Wide Web Conference.
  • Zhang, C., Song, D., Huang, C., Swami, A., & Chawla, N. V. (2019). Heterogeneous Graph Neural Network. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.
  • Fan, W., Ma, Y., Li, Q., He, Y., Zhao, E., Tang, J., & Yin, D. (2019). Graph Neural Networks for Social Recommendation. The World Wide Web Conference.