chore: auto-commit from dashboard

This commit is contained in:
2026-04-29 16:04:28 +00:00
parent 6d1d4bfeb5
commit 176dc01aa6
8 changed files with 221 additions and 917 deletions

View File

@@ -0,0 +1,58 @@
# Love Yourself Even If They Don't
**Sursa:** https://www.facebook.com/share/r/1akfPJYvTw/
**Data:** 2026-04-29
**Creator:** Julien Blanc (@julienhimself)
**Format:** Reel (~1 min)
**Tags:** @coaching #self-love #self-esteem #social-approval #mindset
---
## TL;DR
Julien Blanc face un exercițiu pe stradă: îl întreabă pe un trecător care e artistul lui preferat. Răspunsul: Glenn Gould. Nimeni din grup nu știa cine e, apoi toți l-au criticat. Întrebarea lui Julien: "De ce mori pe colina asta pentru muzica lui Glenn Gould, dar nu faci același lucru pentru tine însuți?"
Mesajul central: stima de sine nu ar trebui să fluctueze în funcție de câți oameni te aprobă — la fel cum iubești un artist indiferent de opinia altora, poți să te iubești pe tine indiferent de opinia altora.
---
## Transcrierea
> What's your favorite band or singer of all time?
> Just leave me with Gold playing Bach.
> Did you understand what she said? No. Glenn Gould. Anyone know Glenn Gould? No.
> Oh, is there one person who accepts it? Does it make your love for Glenn Gould less? No.
> What if I'm like, that's the worst musician of all time. I hate them. Are you still going to listen to him?
> He sucks. Yeah. I die on the hill.
> Why were you down on the hill for him, but not you? We all shat on him, big time, diarrhea all over him.
> That's my point, by the way. It's like, do you see it?
> If you like something, you're like, hey, I like it. It doesn't matter if everyone hates it. I like it.
> Why not that with you?
> Here's me. Here's me. You all hate me? I like me.
> Why does it change for you, depending on how many people like it, but not Glenn Gould?
> I don't know. Yeah, you do. A part of you does.
> Why not you? Why are you not like, I love me?
> Why are you not as badass as his music?
---
## Puncte cheie
1. **Stima de sine condiționată vs necondiționată**: Majoritatea oamenilor își evaluează valoarea în funcție de câți oameni îi aprobă. Cu artiștii preferați nu fac asta — de ce nu aplică același standard la ei înșiși?
2. **"Die on the hill"**: Să fii dispus să aperi ceva (sau pe tine) chiar și când toată lumea e împotrivă. Asta nu înseamnă aroganță — înseamnă că valoarea ta nu e pusă la vot.
3. **Exercițiul mental**: Gândește-te la ceva ce iubești necondiționat (muzică, hobby, persoană). Acum aplică același nivel de loialitate față de tine însuți.
---
## Quote notabil
> "Why does it change for you, depending on how many people like it, but not Glenn Gould? Why are you not as badass as his music?"
---
## Idei acționabile
- Când simți că valoarea ta depinde de validarea externă, întreabă-te: "Aș renunța la Glenn Gould dacă toată lumea l-ar urî?" — dacă nu, de ce renunți la tine?
- Practică "die on the hill" pentru tine: identifică 3 lucruri despre tine pe care le aperi indiferent de opinie

View File

@@ -1,5 +1,25 @@
{
"notes": [
{
"file": "notes-data/youtube/2026-04-29_ternary-models-local-ai.md",
"title": "I Just Tried The Brand New Ternary Model And It's Great!",
"date": "2026-04-29",
"tags": [
"local-ai",
"llm",
"ternary",
"quantization"
],
"domains": [
"work"
],
"types": [],
"category": "youtube",
"project": null,
"subdir": null,
"video": "",
"tldr": "Prism ML a lansat primul model **ternary** viabil (Bonsai 8B Ternary), evoluția modelelor one-bit. Ternary folosește valori -1, 0, +1 în loc de -1/+1 (one-bit), ceea ce reduce eroarea de acuratețe la ..."
},
{
"file": "notes-data/coaching/playlist-transe-meditatii.md",
"title": "Playlist Transe Ghidate & Meditații",
@@ -9017,12 +9037,27 @@
"subdir": null,
"video": "",
"tldr": "Tutorial complet pentru a vorbi cu Claude Code prin telefon, folosind 3CX (sistem telefonic cloud gratuit) + un proiect GitHub custom. Setup-ul implică: 3CX cloud (gratuit, <10 useri), un voice server..."
},
{
"id": "facebook/2026-04-29_julien-blanc-love-yourself",
"title": "Love Yourself Even If They Don't — Julien Blanc",
"path": "memory/kb/facebook/2026-04-29_julien-blanc-love-yourself.md",
"date": "2026-04-29",
"tags": [
"coaching",
"self-love",
"self-esteem",
"social-approval",
"mindset"
],
"source": "facebook-reel",
"creator": "Julien Blanc"
}
],
"stats": {
"total": 518,
"total": 520,
"by_domain": {
"work": 163,
"work": 164,
"health": 98,
"growth": 234,
"sprijin": 39,
@@ -9040,7 +9075,7 @@
"reflectii": 3,
"retete": 1,
"tools": 7,
"youtube": 105,
"youtube": 106,
"memory": 43
}
},
@@ -9077,4 +9112,4 @@
"youtube",
"memory"
]
}
}

View File

@@ -0,0 +1,49 @@
# I Just Tried The Brand New Ternary Model And It's Great!
**Sursa:** https://youtu.be/lDlkkDs43aw
**Data:** 2026-04-29
**Canal:** Anything LLM / Timothy Carbat
**Durata:** ~25 min
**Tags:** @work @tech #local-ai #llm #ternary #quantization
---
## TL;DR
Prism ML a lansat primul model **ternary** viabil (Bonsai 8B Ternary), evoluția modelelor one-bit. Ternary folosește valori -1, 0, +1 în loc de -1/+1 (one-bit), ceea ce reduce eroarea de acuratețe la aproape zero față de FP16, cu resurse de 7-8x mai mici. File size ~2GB, memorie RAM ~2GB pentru un model de inteligență 8B. Rulabil local pe orice hardware (CPU, GPU, Mac M-series) via o versiune custom de llama.cpp de la Prism ML.
---
## Puncte cheie
1. **One-bit vs Ternary**: One-bit = valori -1 sau +1 (adunare simplă, extrem de eficient). Ternary = valori -1, 0, +1 (1.58 biți efectivi) — mai precis, aproape la nivelul FP16.
2. **Benchmark-uri**: Ternary Bonsai 8B → 75.5 medie vs Qwen3 8B FP16 → 79.3. One-bit → 70. Gap mic față de modelul full, enorm față de quantizare clasică la 2-bit.
3. **Resurse**: Model FP16 8B = 16GB VRAM. Ternary 8B = ~2GB. De 7-8x mai mic, cu pierdere minimă de acuratețe.
4. **Instalare**: llama.cpp custom fork de la Prism ML (GitHub releases) + GGUF model de pe HuggingFace. Nu e one-click, necesită terminal, dar e simplu.
5. **Integrare Anything LLM**: Se configurează ca provider OpenAI generic cu `localhost:8080/v1`. Suportă tools (web search, SQL, Gmail, Google Calendar, documente).
6. **Limitare actuală**: Momentan doar până la 8B parametri. Dacă Prism ML antrenează un model 27B ternary, acesta ar putea rula pe telefon cu acuratețe completă — schimbă fundamental local AI.
7. **Viitor local AI**: Combinat cu context window improvements (turboquant), ~80% din taskurile zilnice de inferență pot fi făcute local, fără cloud.
---
## Quote-uri notabile
> "This is the future of local AI. Imagine being able to run Qwen3 27B with its full accuracy on your phone."
> "Benchmarks should be used as a useful gauge to just eyeball if a model is worth your time — the only way to know if a model is good is to download it."
> "We're saving on both sides of the puzzle and I really don't see how local models don't win."
---
## Idei acționabile
- [ ] Testează Ternary Bonsai 8B local (LXC Ollama 104 sau direct pe server) — file size ~2GB, compatibil cu llama.cpp custom
- [ ] Urmărește Prism ML pentru modele >8B (27B ternary ar fi game-changer pentru Chatbot Maria sau asistență locală)
- [ ] Evaluează înlocuirea unor apeluri cloud API cu model ternary local pentru taskuri repetitive (reducere costuri)