The Foundation of Artificial Intelligence by Dr.Apivadee (SEA) ภาคเช้า #LearningWithSCK

Parima Spd
7 min readMay 25, 2024

--

สวัสดีคนขยันวันเสาร์ (ฉันเองนี่แหละ อ่อ แล้วก็พี่ๆ น้องๆ ชาว SCK — WLB ด้วย) คลาสนี้ได้รับเกียรติจาก อ.ซี โดยการชักชวนของพี่หนุ่ม มาให้ความรู้เบื้องต้นเกี่ยวกับ AI

ที่มาที่ไปก่อนจะเริ่ม พี่หนุ่มเล่าให้ อ.ซี ฟังก่อนว่าชาว WLB มีวิธีการทำงาน (ที่ได้รับการฝึกจากพี่หนุ่ม) มาเป็นอย่างไร ในเรื่องของการทำ Test Design แล้วออกมาเป็น Test Scenarios (ซึ่งจะไม่ใช้เงื่อนไขที่มีความขัดแย้งกัน) จากนั้นก็เล่าว่า มี Lab ภายในของชาว WLB (นำโดย ข้าวฟ่าง อาร์ม เปิ้ล) ที่พยายามใช้ AI จากหลายๆ ค่าย เขียน Prompt เพื่อให้ได้เป็น Test Cases ที่อยากได้ ซึ่งก็เหมือนว่าจะเริ่มฉลาดแล้ว แต่ก็ยังไปไม่ถึง Test Scenarios ที่ร้อยเรียงออกมาเป็นเรื่องราว

อ.ซี จบ ป.ตรี ด้าน Jewelry แต่มีความสนใจด้าน Image Processing แต่เทคโนโลยีสมัยนั้นยังไม่ Work ก็เลยเบนเข็ม ต่อโท IT เรียน AI และใช้ AI ด้าน networking แทน จบ multi-objective optimization เป็น AI ยุคแรกๆ

อยากให้เห็น Robot TARS & CASE เป็นหุ่นยนต์ที่อยู่ในอวกาศ คุยกันเองได้ ขู่พระเอกก็ได้ แถมยังบอกว่ามันรักษาความลับได้ รู้จักเลี่ยงบาลี คล้ายๆ จะมี moral แบบที่มนุษย์มี สามารถ Set ค่า Humanity, Joke ได้

อ.ซี คิดว่า น่าจะเกือบเป็น General Intelligence แต่ยังไม่ได้เป็น Super Intelligence เพราะบางส่วน Human ยัง Control ได้อยู่ และ AI ก็ response ทันที กับสิ่งที่มนุษย์สั่ง

ซึ่งปีนี้จะเป็นปีที่เน้นเรื่องนี้ คือให้ Human control AI เพื่อลดความเสี่ยงด้วย

ส่วน unitree เป็นตัวอย่างที่ดูเหมือนฉลาด แต่ยังไม่ได้แสดงความ Intelligence ขนาดนั้น มันเป็นแค่โชว์ความเก่งด้านเครื่องกล

History of Artificial Intelligence

https://qbi.uq.edu.au/brain/intelligent-machines/history-artificial-intelligence
  • จริงๆ มันมีมานานแล้ว แต่มันเริ่มมาดังตอน Alan Turing
  • Enigma Code ในช่วงสงครามโลก รันช้า ด้วย Capacity ที่ไม่โอเค โครงการก็เลยถูกพับไป
  • ช่วง 1980 ก็กลับมาบูมอีกครั้ง เป็นเรื่องของ Expert System ความคาดหวัง คือโคลนตัวเองเป็นอีกคน และไปตัดสินใจที่อื่นได้ แต่ Limitation ก็คือต้องเขียน If, Then, Else หลายพันบรรทัด
  • แล้วก็กลับมาอีกครั้งตอน AlphaGo (ที่มันเล่นโกะ) แล้วก็ดูเหมือนจะดีขึ้นเรื่อย แต่ Hardware ก็ยังมี Limitation อยู่
  • จนปี 2012 มี Deep Learning และมีความ Advance ขึ้นเรื่อยๆ
  • ที่มันเร็วเพราะว่า Computing Capacity มันดีขึ้น Memory สูงขึ้น ทุกอย่างกลายเป็น Data
  • IOT ก็สร้าง Data มากขึ้น
  • มี Online Learning ให้ดาวน์โหลดตาม internet เยอะมาก
  • AI ไม่ได้อยู่ได้ด้วยแค่ Math อย่างเดียว แต่รวมจากหลากหลายสาขาวิชาเข้ามาอยู่ด้วยกัน

ประเทศไทยเราก็มีแผนยุทธศาสตร์ด้านนี้อยู่นะ https://ai.in.th/about-ai-thailand/

https://www.springnews.co.th/digital-tech/technology/833808

Introduction

  • Deep mind (Alpha Go) — 2017
  • Self-driving cars — Feb 2024

เทคโนโลยีที่ผลิตที่ USA แต่มาอยู่ในบริบทบ้านเรา แน่ใจได้อย่างไรว่ามันจะ Work เช่น รถที่มี Lane keeping มาถนนบ้านเราก็คือไม่ได้เลย เพราะไม่มีเลนถนน 555

  • ChatGPT — 4o มีความว้าวและเร็วมากกว่ารุ่นเดิมมาก อ.ซี กล่าว

จริงๆ แล้ว AI เป็นแค่สาขาหนึ่งของ ComSci

  • Search Engine มี ML ตั้งแต่ปี 2016
  • เราใช้มันทุกวันอยู่แล้ว เพียงแต่เราแค่อาจจะไม่รู้ตัว
  • Netflix หน้าแรก ก็ Customize per คน per ความสนใจของเราช่วงนั้นๆ ด้วย การมี recommendation ทำให้มุมมองเราแคบลง
https://sciencenotes.org/what-is-ai-or-artificial-intelligence-an-ai-answers/
  • Turing Test คือการวัดความฉลาดของ AI โดยให้ AI และ มนุษย์ตอบคำถาม ถ้ามนุษย์ตอบไม่ได้แล้วว่าใครตอบมา แปลว่า AI เริ่มฉลาดแล้ว
  • อ.ซี มีโครงการทำ chatbot arena เพื่อวัด benchmark ระหว่าง AI สองตัว เพื่อ compare ว่าตัวไหนตอบโจทย์ก่อน เป็นการทำในนาม public organization ก็เหมือน A/B Testing ที่คุ้นกันอยู่

Characteristics

  • Intelligence — Understanding — Knowledge — Learning — Decisions — Skills

Aspects

การเรียนรู้ Learning — การอนุมาน Inference — การค้นพบ Discovery — การจำได้ Recognition — ความรู้ Knowledge — การค้นหา Search — การทำนาย Prediction — ความสามารถทางภาษา Language — ไอเดีย Creation

AI คือ รับรู้ Environment เข้าไป มี Data เข้าไปให้มัน (Input) สิ่งที่มันทำคือ ไปหาเหตุผล ไปประมวลผลออกมา แล้วก็ได้ออกมาเป็น Output

  • AI Agent สามารถมีได้มากกว่า 1 AI Component
  • AI Agent (ฉากหน้า) จะทำงานได้ ต้องมี AI System ก็คล้ายๆ กับ SDLC เพียงแต่มีจุดต่างอยู่
  • สิ่งสำคัญใน AI System จะมีสิ่งที่เรียกว่า Model แล้ว Model นี้จะแสดง Data, Knowledge, Process และอื่นๆ ซึ่งจะ conduct Tasks อีกที

AI แบ่งได้เป็นสามเรื่อง Narrow — General — Super

  • weak AI ทำงานแบบ specific ถูกสร้างขึ้นมาทำงานเฉพาะด้าน (Narrow — ANI) มีขีดจำกัด เช่น รถยนต์ไร้คนขับ ChatGPT
  • strong AI (General — AGI) เป็น AI ที่มีความสามารถเหมือนสมองมนุษย์ คิดตัดสินใจแก้ปัญหาต่างๆ ได้อย่างมีประสิทธิภาพ มีสติปัญญาทางอารมณ์เช่นเดียวกับมนุษย์ เหมือนมีเราอีกตัวหนึ่ง ซึ่งยังไม่มีการพัฒนาให้เป็นรูปธรรมได้สำเร็จในปัจจุบัน
  • super AI (Super — ASI) ความสามารถเหนือกว่ามนุษย์ทุกด้าน เรียนรู้ได้เร็วประสิทธิภาพสูงกว่ามนุษย์ เป็นเป้าหมายสูงสุดในการพัฒนา แต่เป็นเพียงแนวคิดในอนาคต
https://aibusiness.com/ml/what-exactly-is-artificial-general-intelligence-ask-deepmind-
  • simple rule-based = If, Then, Else
  • Toxicity detector เด็กพูดคำหยาบแล้วมัน dot dot dot

AI เป็นเครื่องมือ เราสั่งมันได้ ก็จะ up skill ไปเหนือมันเอง

เหล่าคำศัพท์

https://medium.com/womenintechnology/ai-c3412c5aa0ac
  • LLM เป็น foundation model เรียนรู้ข้อมูลขนาดใหญ่ แล้วทำได้หลายๆ Task
  • (เพิ่งมาใหม่) Large multi-modal model เช่น GPT-4 จาก OpenAI ที่สามารถรับ Input ทั้งรูปภาพและข้อความ และ PaLM-E จาก Google ที่เกิดจากการการรวมโมเดลภาษา (LLM) กับโมเดลวิเคราะห์ภาพ (Vision) เข้าด้วยกัน สามารถประมวลผล ทำความเข้าใจ และทำงานกับข้อมูลมากกว่าหนึ่งประเภท เช่น ข้อความ รูปภาพ บทสนทนา Caption วิดีโอ และเสียง — รู้จักอนาคต AI ในรูปแบบ Multimodal AI ทำงานได้กับข้อมูลหลายประเภท แต่มันก็จะมีความหน่วงๆ ในชีวิตจริง ไม่เหมือนกับที่โฆษณาที่ลื่นปรื้ดๆ

2 AI Approaches to Data Science

  1. Top-down ทาง Business จะบอกว่าปัญหาคืออะไร แล้วเราไปหาวิธีทำมาให้ได้ ดึง knowledge มา แล้วก็สร้างผล
  2. Bottom-up เราไปดูที่ Data เรียนรู้จากข้อมูลก่อน (Domain Knowledge) พบปัญหา และสร้าง solution ไปแก้ปัญหา

สิ่งที่ data scientist ทำ คือ หมุน Data หาข้อผิดพลาดให้เจอ แล้วค่อยสร้าง model แก้ปัญหา

รูปแบบ AI

  1. Top-down = Symbolic AI
  2. Bottom-up = Deep learning
  3. Hybrid คือการใช้ผสมกันสองอัน

Top-down Approaches

Search / Rule-based AI เช่น

  • เกม XO ซึ่งเป็น level แรกเลย (Minimax Algorithm) ปัจจุบันก็ยังมีใช้อยู่ แต่เป็นส่วนเล็กๆ
  • Graph theory มองแต่ละ node เหมือนเป็น data แต่ละ node ไม่มี model ที่คิดเองได้ จากนั้นทำความเข้าใจ data แล้วหาทางที่ดีที่สุด (shortest path) เช่นใน Google maps ที่เราส่งข้อมูลกันตลอดเวลา
  • If, Then, Else สร้างกฎแล้ว model มันก็ไปทำงาน

Power Workout

รับกระดาษ Random ที่เขียนว่าอะไรไม่รู้ แล้วให้จับกลุ่มกัน เวลาผ่านไปสักพัก ก็ใบ้กว่า แต่ละกลุ่ม ไม่เกิน 5 คน

  1. ตัวอักษรภาษาจีน (มีสัญลักษณ์ที่มุมขวา) — จริงๆ ภาษาญี่ปุ่นแบบเดียวกัน
  2. ตัวอักษรภาษาไทย ก็คิดว่าน่าจะเป็น สูง กลาง ต่ำ แต่ก็ไม่ใช่อยู่ดี — นิทานเรื่องนี้สอนให้รู้ว่า ใครเล่นดนตรีไทย บ้าง
  3. เลขไทย
  4. วรรณยุกต์ไทย (แต่เหมือนกระดาษเปล่าๆ ที่เป็นเสียงสามัญหายไป)

การละเล่นนี้สอนให้รู้ว่า

  • การแยกได้ อาศัยประสบการณ์ องค์ความรู้เดิม และการคุยกัน
  • มีตะโกนกันโวยวาย กับเอากระดาษแปะหัวไว้ พอเห็นข้อมูลของคนอื่น ก็เดินไปอยู่ใกล้ๆ กัน เพื่อเริ่มแบ่งกลุ่ม แต่ก็ยังลังเลสงสัย เดินไปเดินมา ยืนงงๆ
  • บอกลักษณะเด่นของข้อมูลที่ตัวเองมี
  • สิ่งที่เราเพิ่งทำกันไปคือ AI แบบหนึ่งเรียกว่า Clustering Technique เป็น Organic

AI ฉลาดกว่าเราไหม?

  • ถ้าถามได้ตอบได้ ก็น่าจะฉลาดกว่า เพราะ Data ของ AI มีเยอะมาก นางนั่งอ่านข้อมูลทั้ง Internet ซึ่งมนุษย์เราทำไม่ได้ เป็นข้อจำกัดทางกายภาพ ส่วน AI ก็มีข้อจำกัดด้าน hardware, algorithms ต่างๆ อีกที
  • แล้วทางอารมณ์ ที่ AI ตัวล่าสุดหัวเราะได้ล่ะ? สุดท้ายก็เพราะมี Data อยู่ภายหลังอยู่ดี
  • ที่เราสร้าง AI ขึ้นมา ก็คือ มาทำลายความจำกัดของมนุษย์
  • คิดซะว่า เป็นการพึ่งพากันและกัน ระหว่างมนุษย์และ AI
  • มันเลยเป็นที่มาที่ AI Ethics กำลังถูกให้ความสำคัญมากในปีนี้

Bottom-up approach Machine Learning

https://www.reddit.com/r/datascience/comments/1520fwk/xkcd_comic_does_machine_learning/?rdt=36879
  • การละเล่นเมื่อกี้ คือ bottom-up approach
  • หัวใจสำคัญของ ML คือ Data ว่า มีคุณภาพแค่ไหน

Data ที่มีคุณภาพหน้าตาเป็นอย่างไร — ครอบคลุมมากเพียงพอสำหรับโจทย์ ที่เราอยากให้ ML สร้างมันออกมา

ในเคสของ LLM มันไปกวาดมาหมดเลย เพราะมันต้องการเรียนรู้ภาษา

Three broad categories of machine learning

https://www.mathworks.com/discovery/reinforcement-learning.html
  1. unsupervised learning — find pattern and/or relationship in the existing data set เช่น ไปซื้อต้นไม้ กวาดตาพรืดดด แล้วก็ระบุว่าจะเอาต้นประมาณไหน แล้วต้นแบบไหนที่ไม่เอา
  2. supervised learning — predict an outcome after learning from labelled dataset เช่น การบอก label ข้อมูล แล้วให้ model เรียนรู้ character จากข้อมูลที่ให้ไป แล้วส่งผลออกมาที่เรารู้อยู่แล้ว
  3. reinforcement learning — learn through experiment to maximize rewards and/or achieve the desired outcome ถ้าเราเกิดเป็นน้องหมาและเราหิวพอดี เราอยากจะได้อาหาร สิ่งแรกที่เราทำนั่นก็คือหันไปดูว่ามีใครอยู่ใกล้ๆบ้างนะ โอ้! เจ้าของอยู่ใกล้ๆพอดีเลย เรายืนมือออกไป ร้องขออาหารกับเจ้าของ และหลังจากเราขอแล้วสิ่งที่เราได้กลับมาคืออาหารนั่นเอง (จาก Reinforcement Learning จนมาเป็น Deep Reinforcement Learning)

Supervised Learning

https://medium.com/nerd-for-tech/interview-question-what-are-the-different-types-of-machine-learning-8546218d2a91
  1. Regression
  2. Classification
https://www.projectpro.io/article/classification-vs-regression-in-machine-learning/545

Supervised Learning เช่นให้ Dataset มา หาสมการ หรือ ให้สมการ หา Data

Unsupervised Learning

มองทั้ง Dataset เพื่อหาความสัมพันธ์ เพื่อแยกกลุ่ม

https://idiotdeveloper.com/types-of-machine-learning/
  1. Clustering
  2. Anomaly Detection หา key value ที่ไม่เหมือนเดิม หา outlier ส่วนใหญ่ใช้ Tree ที่มันก้ำกึ่งระหว่างสองกลุ่ม
  3. Association การหาความสัมพันธ์ของข้อมูล เช่น ipod touch กับ iphone ช่วงแรกๆ หรือ เคสพ่อบ้านซื้อเบียร์และผ้าอ้อม หรือ ที่เราซื้อของออนไลน์ ตั้งใจจะซื้ออีกอย่างแต่มี recommend อย่างอื่นก็เลยซื้อมันมาด้วย

Reinforcement Learning

เป็นตัวตัดสินใจแล้ว Drive ต่อ ไม่ใช่ Fact

https://www.spiceworks.com/tech/artificial-intelligence/articles/what-is-reinforcement-learning/

เช่น เอาพวกนี้เข้าไปใช้ spawn Load balancing แล้วประมวลผลว่า ต้องเพิ่มขนาด Server หรืออะไรไหม

Supervised Learning

  • ต้องใช้คนที่มี Domain Knowledge มาทำ Feature Engineering
  • พอเรารู้ว่า Feature คืออะไร ก็จะเน้นเรื่องการ Prepare Data ให้มัน represent ข้อมูลที่ชัดเจนมากขึ้น ถ้ามันไม่ชัดเจน Model ก็จะไม่สามารถทำงานได้
  • ตอนท้ายของ Model เราก็ต้องทำ Evaluation ว่าตอบ Accuracy ไหม เช่น 95% ดีพอหรือยัง ก็ขึ้นอยู่กับแต่ละ Business Case
  • เราพอใจหรือยัง? ถ้ายัง ก็ต้องกลับไป Train ใหม่ ถ้าพอใจแล้วก็เอาไปใช้งานได้
  • Evaluation เป็นส่วนสำคัญมากในงาน AI
  • Performance มีหลายประเภท ขึ้นอยู่กับประเภท ขึ้นอยู่กับโจทย์

Error

  • Sum of squared errors (SSE)
  • Cost = ผลรวมของ Error ของทั้ง Training Dataset
  • จะเอาค่ามาลบกันตรงๆ ก็ได้ แต่ใน ML จะไม่ค่อยทำ
  • การสร้างสมการ มันมีแนวคิดว่าต้องการ penalty ตรงจุดไหน เพื่อ squeeze การทำงานของโมเดล
  • ยกกำลังสอง เพื่อหักล้างความ negative และ magnitude ตัว error ที่มีค่าสูงให้มันสูงขึ้นไปอีก เพื่อบอก model ว่า เธอยังทำได้ไม่ดี
  • บางสูตรก็หารสอง บางสูตรก็หารด้วยค่าอื่น เป็นการเล่นกับ algorithms
  • RMSE: Root Mean Square Error นี่หาค่ามีน แล้วใส่ square root เข้าไป
  • ความแตกต่างของการใช้แต่ละโมเดล ขึ้นกับ engineer และบางทีก็ขึ้นกับเคส
  • ที่ทำงานของ อ.ซี บางทีก็ใช้มันทุก error เลย ซึ่งการใช้ error แต่ละตัว ออกมาได้คนละรูปแบบ จะตีความออกมาได้อย่างไรบ้าง

Evaluate

Confusion Matrix ช่วยเราประเมินว่าเราจะผลิต Curry chicken มากเท่าไหร่ต่อวัน

Precision แม่นยำมาก เช่น ยิงปืน 10 นัด แล้วเข้าตรงกลางทั้งหมด (Positive)

  • True positive = เข้าตรงกลาง ทั้งหมด อย่างที่เราตั้งไว้ 10/10 = 1 คือเคสที่ดีที่สุด
  • False positive = ยิงไม่เข้าตรงกลาง 9 เป็น negative ส่วนเข้าตรงกลางแค่ 1 ดังนั้น 1/9
  • 183 / (183 + 141) = 56.5% เปอร์เซ็นต์การเดาใจลูกค้าถูก ถ้าจะทำให้กำไรเยอะขึ้น ต้องทำเผื่อน้อยลง

ถ้าเราไม่พอใจกับ model พยายามจะปรับ model ของเรา จะมี keyword: Hyperparameter Tuning คือปรับให้มี error น้อยที่สุด

ใน ML จะมี Hyperparameter Tuning เยอะมาก ขึ้นอยู่กับความซับซ้อนของโมเดล หลักสิบยี่สิบคือง่ายแล้ว ถ้า LLM จะเป็นพันล้าน parameter

ML & DL Pathway

  • นิวรอน มีอะไรบางอย่างที่ใช้ในการตัดสินใจ เส้นประสาทก็มีการส่งสัญญาณ มีการรับส่งข้อมูล
  • หน้าตาที่เล็กที่สุดของนิวรอนคือ รับเข้ามา ประมวลผลอะไรบางอย่าง แล้วก็ส่งออกไป ทำหน้าที่เดียว
  • นิวรอน network เกิดการเชื่อมกัน เพื่อช่วยกันประมวลผลในแต่ละรูปแบบ เริ่มจับประเด็นบางประเด็น ฟีเจอร์แต่ละตัว
  • Feature Engineering ในที่นี้ ไม่ใช่ Feature ของ Software แต่เป็น คุณลักษณะในการแยกสิ่งของ เช่น แยก Pizza กับโรตี หรือ แยกดินสอปากกาที่อยู่ในกล่อง อย่างไร เช่น รูปร่าง วัสดุ สี การใช้งาน ขนาด ตัวหนังสือ ต้องมีข้อมูลพวกนี้ให้ครบในการเตรียมข้อมูล เพื่อให้โมเดลเรียนรู้ฟีเจอร์เหล่านี้ เพื่อจะได้ predict ได้ว่า มันคือ marker ปากกา หรือ ดินสอ
  • ถ้าแยกมนุษย์ ก่อนจะ เพศ ทรงผมใดๆ บางทีก็มีแยกอีก ว่าเป็น ฝรั่ง หรือเป็น เอเชีย ซึ่งก็จะเกี่ยวกับ racism อีก
  • แต่ละนิวรอน detect คนละคุณลักษณะ (ฟีเจอร์) เช่น เค้าโครง ลักษณะรูปปาก สี
  • จากนั้นก็จะแปลงตามคุณลักษณะที่เรากำหนดไว้ แล้วก็ Yes/No ออกมา หรือ ออกมาเป็นตัวเลข (floating point)
  • จากนั้นก็จะสรุปได้ว่า มีคุณลักษณะอะไรบ้าง ถ้าค่ามันเข้า พารามิเตอร์สูงมากพอ ก็จะวิ่งหา output นั้นๆ ว่า data ชุดนั้น ควร label อะไร ตามมุมมองของ model
  • ถูกหรือผิดต้องไปดูกันที่ evaluation
  • ถ้าค่าที่ detect ออกมา ไม่ผ่านค่า threshold ที่ตั้งไว้ มันก็อาจจะออกไปเป็นรูปแบบอื่นได้ ถ้าเราตั้งค่าโมเดลไว้ ไม่ได้ตั้งค่าแค่ ใช่หรือไม่ใช่
  • มี input และ output เสมอ
  • hidden layer ที่มากขึ้น มักจะทำให้การ predict แม่นยำมากขึ้น แต่ก็ใช้ resource และ ระยะเวลามากขึ้นในการเทรน ทั้งนี้ก็ขึ้นกับโจทย์ด้วย
  • เช่น กระดาษเปล่า กับ กระดาษที่มีการเขียน มันง่ายมาก ถ้าเรามี hidden layer อาจจะทำให้ผลเพี้ยน หรือ เปลืองทรัพยากรโดยใช่เหตุ

Deep Learning (DL)

https://levity.ai/blog/difference-machine-learning-deep-learning
  • โยน Data เข้าไปในโมเดลขนาดใหญ่ ซึ่งถ้าข้อมูลสิบชุดไม่เรียกใหญ่
  • ไม่สามารถรันบนคอมเราเองได้ เพราะมันใช้ทรัพยากรสูงมาก มันเลยมาในยุคหลัง ที่มี Big Data และเครื่องมีประสิทธิภาพสูงขึ้น
  • ตัวอย่างเช่น Computer Vision เช่น เกม Wii, Playstation มันคือการ detect motion จาก joint ของเรา หรือที่ใช้ในการแพทย์เช่น detect ความผิดปกติของตา ความผิดปกติของการ X-ray สมอง
  • ถ้ายุค ML คุณหมอจะต้องมาวงๆ แล้วคิดว่ามันใช่ Tumors หรือเปล่า label แล้วส่งข้อมูลกลับไป
  • Self-driving เช่น detect เลน รถคันอื่น ถ้ารถคันอื่นห่างจากเรา ควรใช้อัตราเร่งเท่าไหร่

Object segmentation

https://www.ml6.eu/blogpost/effective-image-labeling-for-computer-vision-projects
  • ซึ่งการทำสิ่งนี้ ก็มีความ false positive อยู่
  • เวลา upload รูปภาพเข้าไป มันคือ สี RGB ถอดสีออกมา เป็นตัวเลข แล้วเอาสีไปประมวลผลว่า สีพวกนี้คุณลักษณะมันคืออะไร แล้ว output ออกมาเป็นอะไรกันแน่นะ

Low code ที่อยากให้ทดลองเล่น

https://teachablemachine.withgoogle.com/train/image

https://teachablemachine.withgoogle.com/train/image

ช่วงเวลาแห่งการทดลองเล่น

ถ้าเอาตัวเองถอยหลังออกไปยืนแบบไกลๆ ก็จะกลายเป็นว่าคล้ายพี่ปอแทน งงจังเลย 555

//ช่วงแนะนำหนังสือ Measure What Matters:

ก่อนจะทำอะไร เราต้องรู้ก่อนว่า เราจะวัดมันยังไง

ถ้าอยากย้ายมาทำงานแบบ อ.ซี คือ มีพื้นฐานเข้าใจความเป็นมนุษย์ เพราะ AI มันพยายามเลียนแบบเรา ทุกวันนี้เราบอกได้ยังไงว่า เรา Good or Bad แล้วก็พวก Math, Logic เรียนรู้ได้หมดเลย ถ้าเราตั้งใจ และกัดไม่ปล่อย

The Foundation of Artificial Intelligence by Dr.Apivadee (SEA) ภาคบ่าย อ่านต่อได้ที่นี่

--

--

Parima Spd
Parima Spd

Written by Parima Spd

I enjoy reading and writing. Continue to learn and try new things to improve. Before you die, explore this world.

No responses yet