기본 콘텐츠로 건너뛰기

VSCODE 빌드환경만들기, 디버깅환경 만들기 초간단 예제

 VSCODE 사용하기 편집기가 아니라 빌드환경으로 만들어보기 tasks.json {   "version" : "2.0.0" ,   "tasks" : [     {       "label" : "Build hello_app with make" ,       "type" : "shell" ,       "command" : "make clean && make all" ,       "args" : [],       "options" : {         "cwd" : "${workspaceFolder}/build"       },       "group" : {         "kind" : "build" ,         "isDefault" : true       },       "problemMatcher" : []     }   ] } 편집기가 아니라 디버깅환경으로 만들어보자 launch.json {     // Use IntelliSense to learn about possible attributes.     // Hover to view descriptions of existing attributes.     // For more information, visit: https://go.microsoft.com/fwlink/?linkid=830387     "version" : "0.2.0" ,     "configurations" : [...

자신이 가진 CPU/GPU환경에 맞는 LLM을 골라보자

Reason: Searching for lightweight LLMs that can be used in VS Code. reference https://github.com/aidatatools/ollama-benchmark how to Run llm_benchmark run --no-sendinfo --custombenchmark=C:\Python311\Lib\site-packages\llm_benchmark\data\custombenchmarkmodels.yml C:\Python311\Lib\site-packages\llm_benchmark\data\custombenchmarkmodels.yml # Author: Peter Lim # License: # Created: 2025-03-30 version : 1.0 models :   - model : deepseek-r1:1.5b   - model : deepseek-r1:8b   - model : deepseek-coder-v2   - model : gemma:2b   - model : gemma2:9b   - model : gemma3:4b   - model : phi:2.7b   - model : phi3:3.8b   - model : phi4:14b   - model : mistral:7b

FastAPI 개발환경 구성하기

Pure Windows는 적합하지 않을 것 같아  WSL에서 Docker 기반으로 환경을 구성하고 Docker Desktop 설치후 WSL 환경에서 Docker image 로 my-fastapi-app 를 준비함 "  docker build -t my-fastapi-app . "   WSL 환경에서 Docker container 로 fastapi-app 로 데몬으로 준비, 포트 8000 연결조건 docker run -d -p 8000:8000 --name fastapi-app my-fastapi-app WSL 환경에서 Docker containter를 종료시 삭제조건과 app폴더를 연결하는 조건  docker run -d -p 8000:8000 --rm -v $(pwd):/app my-fastapi-app WSL 환경에서 Docker containter에게 이름  fastapi-app 지정하는 조건 docker run -d -p 8000:8000 -v $(pwd):/app --name fastapi-app my-fastapi-app WSL 에서 Docker container  fastapi-app  에 연결하기 docker exec -it fastapi-app /bin/bash  
OpenAI API 대신 ollama API 서버 사용해보기 OPENAI는 경쟁자 대비 성능과 편의성에서 앞서 나가고 있기 때문에 후발주자는 OpenAI의 API형태를 산업표준처럼 지원하고 있다. 실제 서비스를 위해서는 성능 좋은 OpenAI API 서비스를 사용해야하지만 학습하는 입장에서API호출하는 방법을 연습하기 위해서 Ollama Server가 제공하는 호환 API로 동작테스트해본다. 일반적으로 설치한 Ollama 서버는 0.0.0.0:11434 port에서 통상 동작한다. 다르게 변경했다면 그에 맞게 수정필요하다. " v1/chat/completions" 이 부분은 OpenAI 가 제공한 API endpoint인데 후발주자들도 이 형식을 지원한다. Ollama 서버이용 import requests import json def classify_intent_llm ( text ):     system_prompt = f """You are a helpful assistant that classifies user intents based on a few examples. Examples: - User: 오늘 서울의 날씨는 어때? -> Intent: weather - User: 가까운 커피숍 어디 있어? -> Intent: location_search - User: 최근에 출시된 대출 상품에 대해 알려줘. -> Intent: product_info Consideration: Only outputs the name of intent. """     user_prompt = f """Classify the following user input: User: { text } -> Intent: """     # Ollama API 엔드포인트     url = "http://localhost:11434...

RTX4080S 에서동작시킬만한 local LLM model 성능에 대한 주관적 비교

### Ollama를 활용한 로컬 LLM 모델 테스트 정리 Ollama를 사용하여 다양한 LLM(Local Language Model)을 테스트한 결과를 두 가지 주요 관점에서 평가할 수 있었습니다: 1. **한국어 처리 성능의 한계**: 대부분의 모델이 한국어를 제대로 처리하지 못하거나, 일부 깨짐 현상이 발생했습니다. 2. **지연 시간(Latency)**: 모델 응답 속도가 느려 실사용에 어려움이 있었습니다. ### 테스트 환경 - **PC 사양**: Intel i7, DDR 32GB, RTX 4080S (12GB VRAM) - **제약 사항**: Llama 3.3 70B 모델은 VRAM 부족으로 로딩 불가. ### 모델별 평가 결과 #MODEL_NAME = "llama3.2" 한국어가 일부 깨짐 #MODEL_NAME = "EEVE-Korean-10.8B" #MODEL_NAME = "llama3-instruct-8b" 한국어로 대답하지 못함함 #MODEL_NAME = "llama3.3:70b-instruct-q2_K" 너무 느림 #MODEL_NAME = "phi3:medium" 성능이 나쁨 #MODEL_NAME = "gemma2:27b" 많이 느리나 챗GPT 같음 MODEL_NAME = "gemma2" # 빠름 ### 결론 - 한국어 처리가 중요한 경우, 현재 Ollama 기반 LLM은 한계가 있습니다. - 고성능 모델은 지연 시간이 길거나 메모리 한계로 인해 로딩이 어려운 경우가 많습니다. - 빠른 응답 속도를 원한다면 Gemma2와 같은 경량 모델이 적합하지만, 성능은 제한적일 수 있습니다. 일단 EEVE-Korean-10.8B 와 gemma2 를 번갈아가면서 써보려고 합니다. 참고할 내용들  Citations: [1] https://www.youtube.com/watch?v=GsZ9w04smVE [2] https://cod...

llama 계열 gguf 제공되는 경우 가져와서 사용하는 예제

llama 계열의 모델이 친절하게 gguf 형태로 제공되는 경우 어떻게 다운받고 어떻게 ollama에 추가하는지 예전에 gguf 파일을 등록하는 유튜브 강의를 보고 메모해두것을 기반으로 2024년 12월31일 추운 겨울 밤 기억을 백업해 봅니다 수동으로 작성한 것은 지우고 copilot으로 포맷을 정리해서 업데이트합니다. Bllossom/llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M 한국어 모델 추가하기 시작 : MS Copilot과의 질의응답 중 llama 3.2 기반의 한국어 학습 모델을 발견. 현재 사용 모델 : EEVE-Korean-10.8B (약 7.7 GB) 모델 사용 중. llama 3.2 기반 한국어 모델 소개 : 모델 설명 링크 gguf 파일 다운로드 링크 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B  기반 한국어 모델 소개 : 모델 설명 링크 gguf 파일 다운로드 링크 모델 설정 파일 (Modelfile) : FROM llama-3.2-Korean-Bllossom-3B-gguf-Q4_K_M.gguf PARAMETER temperature 0.6 PARAMETER top_p 0.9 TEMPLATE """<|start_header_id|>system<|end_header_id|> Cutting Knowledge Date : December 2023 {{ if .System }}{{ .System }} {{- end }} {{- if .Tools }} When you receive a tool call response, use the output to format an answer to the orginal user question. You are a helpful assistant with tool calling capabilities. {{- end }} <|eot_id|> {{- range $i , $_ := .Messa...

RTX GPU를 가진환경에서 torch 설치하기 2024.12기준

  RTX 4080S , RTX 2070S 활용하는 torch 설치하기 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124 GPU 설치되어 있는 GPU Driver 에 따라서 상황이 달라질수도 있으나 , 안정적이고 최근이라고 판단한 NVIDIA CUDA 12.7.33 driver 를 사용할 수 있는 2024년12월기준으로는  pytorch 등을 CPU를 사용하지 않고, GPU를 활용하여 torch가 동작시킬 수 있었다 테스트환경 RTX2070S 와 RTX4080S 에서 확인 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\bin;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.6\libnvvp;C:\Python311\Scripts\;C:\Python311\;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\bin;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\libnvvp;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\bin;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\libnvvp; cuda 버젼 설치확인 (finetuning-py3.11) M:\WORK_LLM\finetuning>python check_gpu.py version 12.4 cuda 버젼 설치확인 script (finetuning-py3.11) M:\WORK_LLM\finetuning>type check_gpu.py #pip conda install pytorch torchvision torchaudio pytorch-cuda=12.1 ...

Github CLI 써보기

 Github CLI 써보기 GitHub에 접근할때 git만 사용했는데 github에서 제공하는 인터페이스를 써본다. https://cli.github.com/manual/ git 으로 하는것과 무슨차이가 있겠나 싶긴했는데  gh를 처음에 설정하는 귀찮음을 동반하지만 gh로 로그인을 할때 API로 한번 인증해두면 코드 가져올때 나쁘지 않은것 같다. gh auth login github에 있는 repo 당겨오는 예시 gh repo clone johlim/hello-world cd hello-world git log --graph

OS가 설치된 PM981A (512GB)를 A440Pro(2TB)로 NVME 마이그레이션 과정

조립대행으로 마춘 컴퓨터라 NVME 마이그레이션을 처음인데 무사히 마쳐서 2~3년뒤에 혹시 찾아볼까 싶어 기록으로 남깁니다. 사용하는 제품은 NVME 제품은 삼성전자 PM Pm981a M.2 NVME 512GB 인데 국내에서는 삼성전자 내장 SSD 970 EVO Plus NVMe M.2 500 GBMZ-V7S500BW https://www.samsung.com/sec/memory-storage/970-evo-plus-nvme-m2-ssd/MZ-V7S500BW/ 기존시스템 AMD 라이젠 3600 (마티스) MSI B450M 박격포 맥스 M2_1 은 PCI e3.0 M2_2 는 PCIe 2.0 삼성전자 PM Pm981a M.2 NVME 512GB C 드라이브가 점점 차올라서 TeamGroup A440 Pro PCIe 4.0x4 2TB 구입 11월25일 주문, 12월2일 배송 JEYI 방열패드 조립 https://youtu.be/idZ3ctqlpwo?si=Ade03n0afuMKTD9q 존스보 방열판보다는 더 두꺼우나 장착에는 문제가 없음. M.2 2nd slot에 장착 Migration Program 준비 여기서 시간소요 많이함, Free 버젼에서 Clone기능이 막혀있거나 Trial에서도 안되는 복제기능이 지원되지 않음. AOMEI backup Std Clone 미지원 AOMEI backup Pro Tirla Clone 미지원 Samsung Disk_Mirgration (지원하지 않는다는 이야기가 있어서 Skip) refect home trial 지원 refect home trial로 clone시 21분소요 PCIe 3.0 x4 에서 PCIe 2.0 x4 로 clone C: Pm981a spec상 속도가 3500MB/s, 쓰기 속도는 3200MB/s F: A440 Pro spec상 속도가 7400MB/s, 쓰기 속도는 7000MB/s 복제완료후 PCIe 3.0 의 PM981A와 PCIe 2.0 의 A440 Pro를 스왑 해매는 포인트 여기서 약간 해맸...
 ASUS RT-AC68U 공유기의 간이 NAS 기능 재발견 WD MyCloud 를 가지고 있어서 공유기의 부가기능인 NAS 기능에 대해서 관심이 없었지만 WD MyCloud가 이제 수명이 다했는지 종종 다운이 되어서 불편해지고 있어 대체재를 찾기 위해서 조사해본다. 나중에 잊어버릴것 같아서 기록 순서 1. Insert a empty USB memory Stick to ASUS USB 2.0 Port 2. Install Download Master ASUS 관리콘솔로 로그인 한뒤 Downloader Master 관련 package를 설치한다. package 설치시 시키는대로 하면 된다.  Downloader 가 다운로드 받을 위치를 download 받을 위치를 USB Disk로 지정한다. 필요한 경우 Windows PC에서 운영할 수 있는 Program을 사용해도 되는데 이 작업도 ASUS  Downloader Manager로 로그인해서 처리할 수 있다. 3. config Server center 다운로드 받은 내용을 PC에서 보기위해서는 Upnp이나 FTP, SAMBA 같은 서버가 활성화 되어야한다. 서버 센터로 가서 SAMBA 서버를 설치한다.  같은 네트워크안에 삼바서버가 설치가 되어 있으면  PC에서 "\\장치이름" 이라고 파일탐색기에서 입력하면  USB Memory Stick이 보인다. 만약 장치이름을 USBDISK 와 네트워크를 "USBDISK"와 PC와 동일한 WorkGroup으로 설정하면  예시  " \\USBDISK" #BenQ 27inch Monitor #Western Digitial MyCloud Gen1 #ASUS RT-AC68U 네트워크 프린터 서버는 필요해서 몇번 해보긴했는데 정말 쓰XX 처럼 잘 동작하지 않았다.  제대로 되지 않아서 포기.

이따금 하지만 반복적인 jenkins 관리 문제

이따금 하지만 반복적인 Sub-process /usr/bin/dpkg returned an error code (1) 대책 https://ko.linux-console.net/?p=354#gsc.tab=0 문제 apt update중 jenkins가 말썽을 일으킨다. 공개키를 등록해도 ubuntu key서버에 등록해도 마찬가지다. sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys XXXXXXXXX 나의 추가 솔루션 apt가 사용하는 인증대상에서 제외시켰다 문제 설치업데이트를 하는데 또 말썽을 일으킨다. Setting up jenkins (2.414.1) ... Job for jenkins.service failed because the control process exited with error code. See "systemctl status jenkins.service" and "journalctl -xe" for details. invoke-rc.d: initscript jenkins, action "restart" failed. ● jenkins.service - Jenkins Continuous Integration Server    Loaded: loaded (/lib/systemd/system/jenkins.service; enabled; vendor preset: enabled)   Drop-In: /etc/systemd/system/jenkins.service.d            └─override.conf    Active: activating (auto-restart) (Result: exit-code) since 토 2023-09-16 16:51:19 KST; 9ms ago   Process: 4669 ExecStart=/usr/bin/jenkins (code=exited,...
Bark 로 음성을 만들어보자, (내 컴퓨터에서) YouTube 를 보다 Bark 라는 OpenSource 프로젝트를 알게 되어, 내 컴퓨터에서도 돌려볼까 라는 간단하게 생각하고 시작 했다 . README를 보니 PYTORCH 2.0+ 과 CUDA 11.7 과 CUDA 12.0에서 테스트해보았다고 한다. 초기 CUDA나왔을때 관심을 가지고 NVIDIA 개발자로 등록하고 회사에서는 1050 설치가되어 있는 노트북에서 nvidia 개발툴킷 설치도 하고 이런 저런 샘플을 돌려봤는데 집 데스크탑에서는 아예 CUDA 툴킷자체가 설치가 되어 있지 않았다. NVIDIA 그래픽 드라이버와 별개로  CUDA ToolKit를 설치해야 한다. 글을 쓰는 시간 기준으로 NVIDIA CUDA TOOLKiT을 설치하면 12.1가 설치된다. 느낌적인 느낌이지만 아마도 11.7을 더 많이 테ㅅ트하고 문제가 없을것 같아 아카이브를 찾아서 11.7로 재설치해야했다. 혹시나해서 12.0도 설치하지 않고 다운은 받아둔다. PYTORCH도 기존에서 Stable diffusion 때문에 설치되어 있는게 TORCH 2.0.1 인데 BARK때문에 설치한것 패키지는 2.0.0을 원하는 호환문제로 재설치해야했다. 설치해서 구동해서 보니 속도가 처참하게 느려서 GPU를 활용하지 못하는 CPU 버젼이라 CUDA 버젼으로 재설치해야했다. 휴일 시간이 참 잘간다 이러저래 삽질한 후에 설치 후 구동해보고  Bark Project Issue 쪽에 필요한 쪽 정보를 올려둔다👄 https://github.com/suno-ai/bark/issues/202#issuecomment-1537189433 https://github.com/suno-ai/bark/issues/202#issuecomment-1537192524 --- cuda Download link https://developer.nvidia.com/cuda-downloads torch Download Link https://download.pyt...

2023.11.19 기준 최신 flutter 3.13.9 , dart 3.2.0 설치

 2023.4.6 기준 최신 flutter, dart 설치후 경험 flutter sdk , dart sdk 공식문서에 따라서 잘 설치함. Windows Desktop 에서만 테스트할것이라서  Andorid tool 과 Android Studio는 설치하지 않음

How to use turbojpeg library Android App

안드로이드앱에서 TurboJpeg library를 사용하기 방법 Android Framework에 포함시키기 위해서는 Android.mk Application.mk 작업이 필요함. GitHub등에서서 소개되는 방식이나 소개되는 version이 1.1.x 대로 1.4.x version을 적용하려고 함. 사전준비 NDK 설치 Linux Machine StandAlone NDK 설치된 Linux Machine ndk-build를 이용하는 경우 Android.mk 필요 $NDK/ndk-build NDK_PROJECT_PATH=. APP_BUILD_SCRIPT=./Android.mk APP_ABI=armeabi-v7a or $NDK/ndk-build NDK_PROJECT_PATH=. APP_BUILD_SCRIPT=./Android.mk APP_ABI=armeabi Android.mk # Makefile for libjpeg-turbo ifneq ($(TARGET_SIMULATOR),true) ################################################## ### simd ### ################################################## LOCAL_PATH := $(my-dir) include $(CLEAR_VARS) ifeq ($(ARCH_ARM_HAVE_NEON),true) LOCAL_CFLAGS += -D__ARM_HAVE_NEON endif # From autoconf-generated Makefile EXTRA_DIST = simd/nasm_lt.sh simd/jcclrmmx.asm simd/jcclrss2.asm simd/jdclrmmx.asm simd/jdclrss2.asm \ simd/jdmrgmmx.asm simd/jdmrgss2.asm sim...

How to build Oreo AOSP source in ubuntu 14.04

사실 AOSP 빌드에 관한 자료는 검색을 이용하면 쉽게 얻을 수 있습니다. 하지만 이번에 ubuntu 14.04 에서 Oreo AOSP를 빌드하려니 딱 맞경우가 없고 사소하지만 골치 아프게 하는 문제가 있어 기록용도로 작성합니다. ubuntu 18.0x 가 공식배포된 지금 14.04는 퇴물처럼 느껴지나 개발환경이 14.04라고 하는 패키지들이 있어서 개발환경을 14.04로 문서상 명기가 되어 있는 경우 본인만 겪는 이상한 문제를 피하기 위해서 14.04로 결정하고 시작합니다. 기본적인 가이드 문서는 https://source.android.com/setup/build/initializing 인데, 업데이트가 제대로 하지 않는 느낌이 듭니다. 그래서 다들 자기 경험담을 올리는 것이겠죠. 개요를 설명하면 다운받을 소스를 확인 필요한 패키지를 설치 소스를 다운 빌드 대상확인 다운받을 소스는 https://android.googlesource.com/ 에서 repo를 통해서 AOSP 소스를 받을 수 있으나 정확히 무엇을 받을지는 https://android.googlesource.com/platform/manifest/  에서 확인하고 결정합니다. 이글을 쓰는 시점에 oreo (Android 8)의 경우 https://android.googlesource.com/platform/manifest/ 에서 확인해보면 android-8.1.0_r53 까지 나와 있습니다. 필요한 패키지 설치 mkdir -p ~/bin wget 'https://storage.googleapis.com/git-repo-downloads/repo' -P ~/bin chmod +x ~/bin/repo AOSP 소스를 받을 git을 포함하여 여러툴을 사용하기 때문에 git을 비롯한 패키지를 설치합니다. sudo apt-get install openjdk-8-jdk android-tools-adb bc bison build-essentia...

TUF Z390-PLUS GAMING 보드 불편한점

2018년 11월말에 PC를 새로 셋업했습니다. 사무실에서 사용하는 조건이라 구성은 단촐하게 CPU + BOARD + Memory 컴파일용이라 그래픽카드는 없습니다. CPU는 i7 9700K이고, Mainboard Model 은 TUF Z390-PLUS GAMING 입니다. 전에사용하던 CPU가 Haswell i5였었기 때문에 비교하면 2배는 좋아서 성능은 좋습니다. 이틀정도 설정하고 사용후 불편한점 0. 기존 DVI-I 인터페이스가 없어져서 구형 모니터의 DVI 포트를 사용하지 못합니다. DVI + VGA 조합이었는데 .. 변경후 DP + HDMI 조합이라서 애매하게 되었습니다. 1. 설치후에 ASUS Q-installer가 실행되고 설치가 끝나지 않는 현상이 있습니다. 혹시나 해서 BIOS는 현재 기준으로 최신버젼인 1004로 업데이트했습니다. 부팅때마다 저러고 있어서 , 일단 ASUS 홈페이지를 통해서 문의를 넣어놓은 상태입니다. 참고로 ASUS에 문의를 넣을때 MotherBoard 시리얼 번호가 필요합니다. cpuZ 프로그램으로 Report.txt를 출력해서 Ctrl+f로 찾아보면 Serial Number 와 문의시 필요한 CPU정보, DDR정보를 알아낼 수 있으니 cpuZ로 report.txt를 먼저 생성한후에 ASUS 문의를 시작하면 시간이 단축됩니다. Processors Information ------------------------------------------------------------------------- Socket 1 ID = 0 Number of cores 8 (max 8) Number of threads 8 (max 8) Name Intel Core i7 9700K Codename Coffee Lake Specification Intel(R) Core(TM) i7-9700K CPU @ 3.60GHz Package...

IDE Debugger 설정 for Raspberrypi

임베디드 장비 성능이 워낙 좋아져서 Native Compile도할 수 있지만 간단한 코드 테스트는 Windows ToolChain을 통해서 해볼수 있을 것 갈다. Raspberry PI는 다양한 수요때문인지 Windows에서 동작하는 Toolchain을 구할 수 있다. 슬라이드 끝 부분 링크 테스트에서는 raspberry pi2 때 쓰던 cross compiler와  asus에서 내어놓은 SBC인 Tinker Board를 사용했다. ( pi2는  BCM2836  /32bit, asus tinker 는 RK3288 /32bit ) Raspiberry용 toolchain으로 빌드한 실행 바이너리도 Pi호환 계열의 ASUS Tinker 보드도 같은에서 바로 실행된다.

라즈베리파이 W에 nodejs 연습환경 꾸미기

Linux 환경에서 node js 환경을 꾸미기가 어려운 조건일때가 있다. 예를 들어 Linux PC가 없는 경우 Linux 환경자체가 익숙치 않고, 설치에 아까운 시간을 빼앗기기 싫은 경우 Linux 환경에 익숙하더라도 node js를 설치하기전에 다른용도로 사용중이라 설치된 패키지를 조정하거나 포트를 변경하는 일이 괜한 일거리를 만들어 낼 수 가능성이 있는 경우 이 글을 보는 당신이라면 의욕에 넘쳐서 구매한 라즈베리파이가 제몫을 잃어버리고 방치되고 있을 수 있다. 휴일 아침에 이글을 따라 시작하면 오후면 nodejs 강의를 실습을 겸하면서 따라 할 수 있을 것 같다. 물론 잊어버린 기억을 다시 꺼내는데 걸리는 개인차이는 날 수 있을 거다. 실행순서 우선 고이 잘 보관하고 있을 상자들을 뒤져보자. (라즈베리파이를 획득하셨습니다.) sd카드 8Gb(이상)을 찾는다. Raspbian stretch lite 이미지를 받아서 sd카드에 굽니다. https://downloads.raspberrypi.org/raspbian_lite_latest.torrent pi로그인 sudo su -l root sudo apt-get update sudo apt-get nodejs sudo apt-get npm (옵션) raspberry pi의 이더넷 또는 WiFi 설정 이더넷은 간단한데 WiFi는 좀 까다로움, 공유기에 따라 안되거나 미묘한 설정차이로도 안되는 경우가 있습니다. ssh 사용하는 것으로 꼭 변경합니다. 잊으신 분을 위해서 재부팅은 sudo shutdown -r now 입니다. 공유기에서 pi 가 사용하는 mac address에 DHCP서버에서 고정아이피를 할당  합니다. 익숙치 않은 경우 ( https://opentutorials.org/module/3398 )참고 이제 notebook이나 PC에서 winscp와 putty로 공유기에서 파이에 할당한 고정아이피로 접속합니다. node.js 코드 수정은 notepad+...
ASUS 무선라우터  RT-AC68U (AC1900) 네트워크 사용통제 설정방법 1) 게스트 네트워크(Guest Network) 유효시간(무제한)을 옵션으로 별도의 SSID를 생성해줄수있다. 패스워드를 달리할 수 있기 때문에 기존 사용자들의 접속 패스워드를 변경하지 않아도 된다. 손님이 많은 가정집이 있을지 모르겠지만, 정말 손님의 잦은 방문이 있는 곳에서 사용할 것이고 . 손님이 없는 가정집에서는 쓸일이 없다. 그리고 이 Guest Network은 설정할때마다 시스템 전체가 꺼지기 때문에 자주 변경할 내용을 옵션으로 두면 불편하다. 예를 들어 Guest Network에 접속할 MAC address를 통해서 clinet 일일이 지정하는것은 불편한 사용법이다. 2) AiProtection-시간 예약 시간 예약 먼저 시간통제하려는 기기의 MAC address를 알아야한다. 자녀라면 자년 핸드폰 기기에서 설정 시스템정보 Wifi 정보를 보여주는 곳에서 지정할  Mac 주소를 확인할 수 있다. MAC 입력창에 주소를 입력할때 Tip ":"는 입력하지 않아도 자동입력되므로 숫자와 영어만 자리수에 맞게 입력할것 ":"포함해서 입력해도 정상인식 하므로 편한대로 입력할것 기기를 먼저 등록하면 기기에 지정할 접속가능시간를 편집할 수 있다. 표형태로 1시간 단위로 지정할 수 있다. 표에서 요일/시간대를 선택하면 사용가능한 시간으로 속성이 변경된다. 한번 더 선택하면 취소하는 방식을 사용한다. Time Table 3) 게스트 네트워크 vs  AiProtection-시간 예약 AiProtection-시간 예약에 지정된 기가라면 특정시간에만 Wifi를 사용할 수 있다. 그외시간에는 게스트 네트워크로 접속하면 어떻게 될까 ? 우선 게스트 접속으로 되나 바로 차단이 된다. 게스트 네트워크에서 허용 기기와 AiProtection-시간예약해서 시간제한 기기가 중복해서 ...