본문 바로가기

분류 전체보기544

tmux 세션 죽이기 tmux session kill tmux kill-session -t {session_name}     키티 파우지 2개 1set 헬로 키티 50주년 기념 파우치 " data-ke-type="html">HTML 삽입미리보기할 수 없는 소스 2023. 4. 14.
getElementById offsetTop 사용법 설명 offsetTop은 요소의 상위 노드에 대한 상대적인 수직 위치를 반환하는 속성입니다. getElementById를 사용하여 HTML 요소를 선택한 다음, offsetTop 속성을 사용하여 해당 요소의 상위 요소로부터의 거리를 알아낼 수 있습니다. 예시 코드 HTML 삽입 미리보기할 수 없는 소스 예시 코드 적용 결과(console log 확인) 2023. 4. 13.
파이썬 딕셔너리 json으로 저장하기, dict to json 파이썬 딕셔너리 json으로 저장하기 dict to json import json data = { "name": "John", "age": 30, "city": "New York" } with open('data.json', 'w') as f: json.dump(data, f) 2023. 4. 13.
sequence_length ? / padding sequence_length ? / padding 패딩 설명 sequence_length는 입력 텐서의 시퀀스 길이를 나타냅니다. 시퀀스 길이는 주로 텍스트 데이터에서 문장의 길이, 시계열 데이터에서 관측치의 수, 혹은 다른 순차적 데이터에서 연속된 요소의 개수와 같은 것을 의미합니다. 자연어 처리(NLP) 작업에서, 시퀀스 길이는 주어진 문장 또는 문서에 포함된 토큰(단어, 문자, 서브워드 등)의 개수를 나타냅니다. 시퀀스 길이가 고정되지 않은 경우, 모든 입력 시퀀스가 동일한 길이를 갖도록 패딩(padding)을 사용하여 길이를 조정할 수 있습니다. 특징(padding) 자연어 처리(NLP) 작업에서, 시퀀스 길이는 주어진 문장 또는 문서에 포함된 토큰(단어, 문자, 서브워드 등)의 개수를 나타냅니다.. 2023. 4. 13.
linear layer 방정식과 pytorch 예시 선형레이어 (deep learning) linear layer 방정식과 pytorch 예시 선형레이어 (deep learning) linear layer 의 방정식 output = input × W^T + b 방정식 심볼에 대한 설명 input 입력 텐서의 크기 (batch_size, input_size) W 가중치 행렬의 크기는 (output_size, input_size) b 편향 벡터의 크기는 (output_size) output 출력 텐서의 크기는 (batch_size, output_size) 파이토지 활용 예시 코드 import torch import torch.nn as nn # 입력 텐서의 크기: (batch_size, input_size) = (3, 5) input_tensor = torch.tensor( [[1, 2, 3, 4.. 2023. 4. 13.
addEventListener 'keydown' 사용법 addEventListener 'keydown' 사용법 설명 addEventListener() 메서드는 요소에 이벤트 핸들러 함수를 등록하는 메서드입니다. keydown 이벤트는 키보드의 키를 누르는 순간 발생하는 이벤트입니다. 코드 사용법 element.addEventListener('keydown', function, useCapture); 입력값 설명 'keydown' 이벤트 이름 'keydown' 그대로 작성 function 이벤트 핸들러 함수 useCapture (optional) 이벤트 캡처링을 사용할지 여부를 지정하는 불리언 값입니다. 기본값은 false입니다. 예시 HTML 삽입 미리보기할 수 없는 소스 2023. 4. 12.