2023/11/11

Harangod

- Eszméletlen, mennyire hangos ez a harangszó! - kiabálja Grimpix méltatlankodva, miközben elkarikázunk a templom mellett.

- Nem hallom! - ordítom vissza.

- I-de-ge-sí-tő ez a harangszó! - artikulál jobban Grimpix

- Hogy mi van? - üvöltöm vissza, pedig már legalább 200 méterrel vagyunk távolabb.

- Kurva hangos ez a harangszó! - ordítja torka szakadtából Grimpix.

- Na nem hallom, mert kurva hangos ez a harangszó! - adom fel végül.


Aztán olyan törvény miért nincs, hogy a templom 200 méteres körzetén kívül ne lehessen az istentiszteletet, a misét, meg az ilyesmit népszerűsíteni? Katolikust térítgesse a református harang, meg fordítva? Mi? Legalább csendben csinálnák, mit tudom én, SMS-ben, vagy Messengeren szóljanak annak, aki feliratkozott.

Pep Ventosa multiexpó stílusa

A multiexpó Pep Ventosa-szerű megközelítését már a múltkor is kipróbáltuk, de most, hogy megint a multiexpó a téma (a David Hockney féle joinerek és a multi viewpoint panorámák kapcsán - ezek következnek), előkerültek valami féléves tesztképek is a felhő-fiókból. 





2023/11/03

Hogyan csinálj az androidos eszközeidből webkamerát - vagy második monitort

Saját jegyzet, igazán ne fáraszd magad vele, csak ha a címbeli dolgok érdekelnek. A réskamerás és videó-feedback kísérleteinkhez úgy tűnik, hogy nem árt egy webkameránál jobb minőségű felvevőt csatlakoztatni a PC-hez, hogy a képrontások során is értelmezhető vizuális eredményt kapjunk. 

Csináljunk a telefonból webkamerát

Több lehetőség is van arra, hogy androidos cuccunkból webkamerát csináljunk. Az iVCamet próbáltuk ki. Az iVcam használatához pár dolgot el kell intézni, előbb kell a progi a PC-re. Aztán kell a progi a telefonra/tabletre. Aztán engedélyezni kell az USB-debuggingot, ami eszközönként máshol és másképpen érhető el: 

A Samsung tableten például a Settings>AboutPhone>Software information szekcióban a BuiltNumberre kell hetet rásózni, amitől a Settings alján megjelenik a Developer information, amiben élesíteni lehet az USB debuggingot. 
A Xiaomiban a settings MyDevice részlegen a MIUI versionra kell tappelni párat. Mikor kiírja, hogy "You are now a developer", akkor a Setting>Additional settings szekcióban megjelenik a Developer options, amiben bekapcsolható az USB debugging. 

Csomó biztonsági figyelmeztetés után, végre készen állunk a PC és az Android összekötésére. Ez lehet USB kábelen keresztül is, vagy amitől leesett az állunk, ha az otthoni routerre kábelesen van felkötve a PC, a telefon Wifiről is rá tud csatlakozni. Vagyis el kell indítani a PC-n és az Androidon is az iVCam progit, aztán megadni mindenféle engedélyeket (de csak legelőször) és ha minden jól ment, akkor egyszer csak megjelenik a telefon kamerájának a képe a PC-n az iVCam ablakában. Minden olyan program, ami a webcamerát használja, az iVCamtől fogja a képet kapni, tehát elvileg innentől a telefon, vagy a tablet maga a webkamera. Például, ha a Processingben programozgatunk a webkamerára, akkor ebben az esetben a telefon képét fogjuk használni. Semmilyen módot nem találtunk arra, hogy Windows szinten választhassunk az iVCam és a sima USB-re dugott normál webkamera között, bár a Camera applikációban, a Windowsban lehet a kamerák között választani, de az összes többi applikációkban, ami a kamera képét használja, csak az iVCam választható. Érdemes az iVCam  beállításokat is végig böngészni, mert vannak itt még érdekességek, hol vegye a hangot, hol adja le, stb. 

Csináljunk a telefonból/tabletből második monitort PC-re.

Mondjuk miért tennénk ilyet? Csak mert megtehetjük. Használati lehetőséget nem látunk abban, hogy az egeret áthúzzuk a telefonra és ott indítsunk el egy facebookot, mert a szemünk már nem a régi. 
Számtalan megoldás létezik, de mi a spacedesknek adtunk egy lehetőséget. Nyilván telefont, ha még annyira nagy is, mint egy lapító, akkor sem érdemes, mert a szemed kifolyik rajta, inkább tablettel érdemes próbálkozni. Szóval PC-re kell egy installált Spacedesk, androidra dettó kell a párja az applikációnak. Majd összekötöttük a kettőt. Ha tud a PC wifit, annál jobb, mi USB-ve dugtuk össze. Aztán csomót kecegtettünk a PC-s konzolon, a telefon meg engedélyeket kért, míg végül a telefon megjelent mint másodlagos monitor. Innentől aszerint lehetett konfigurálni, mint bármilyen második monitort. Egyetlen hátránya, hogy ezentúl akármelyik monitoron is indítottunk el bármit, aminek hangja volt (pl. Youtube), az a telefon hangszórójából szólt. De nem kizárt, hogy ez csak beállítás kérdése. 

2023/10/31

3D anaglif-kupak

Évek óta belebotlok, hol a könyvjelzők között, hol kereséskor dobja a gép. Kész, végére járunk ennek is. Szóval az az állítás, hogy nemcsak már fel nem lelhető, sehol sem kapható, tükrös, lencsés képosztós és bázisnövelős előtétekkel lehet egyetlen géppel egyszerre 3D képpárokat készíteni, hanem objektívsapkából is. 

A professzor úr zöld-magenta szemüvegből csinálja, de nekünk ilyen csak egy van, ha azt széjjelvágjuk, akkor mivel fogjuk nézni, ugye? Emiatt nem teljesen korrekt a kísérlet, ugyanis a professzor úr arra hivatkozik, hogy a Bayer szűrő sajátossága miatt, kiegyenlítettebb az eredmény zöld-magenta rendszerben, hiszen kétszer annyi zöld pixelünk van, mint vörös és kék, tehát a bal szem megkapja a zöld pixeleket, a jobb szem meg a vörös és kék pixelek összegét. Míg a vörös cián szemüveg esetén a pixelek aránya a ciánnál 3 (G+B) kontra a vörösnél 1. 

Forrás

De tudjuk, hogy ennek a kompozit, debayerolt kép esetén nem szabad semmiféle hatása legyen. Vagyis van, ezért sem szeretjük a vörös-cián anaglifokat, vagyishogy a két szem luminanciája nagyon eltér, de ez nem a pixelek eloszlása miatt van így, tehát annál tovább nincs jelentősége a kísérlet szempontjából.Szóval haladjunk.

A kupakba vágott likakat a gyújtótávolság alapján, az anaperture progi számolja ki. Csak a Nikkor 18-55 és 55-200 milliméteresekkel, illetve a Helios 58 milliméteressel próbáltuk ki. Bár említik, hogy nem minden lencsével tökéletes a dolog, nekünk inkább az a véleményünk, hogy csak nagyon kevés lencsével lehet sikeres anaglifokat készíteni. 

Ugyanis a legtöbb esetben a kép két oldala durván elszíneződik vörösre és ciánra, sok esetben a dupla lik mint kis apertúra jelenik meg a képmező közepén (18mm és 35mm állás).  A módszer jelentősen megvámolja a fényerőt is, illetve nagyon kicsi a bázistávolság.

De az az igazság, hogy az 55 milliméteres állásnál, közeli témáknál, az elszíneződött képek közepében mutatkozik némi térhatás. 




A módszer szinte semmire se jó, hacsak arra nem, hogy elgondolkozzunk a fotózás néhány alapkérdésén. Hogy például kellene vásárolni egy rendes előtétet


2023/10/25

A mozgó állókép (2.5D parallax)

Mert ugye az álló kép az olyan unalmas. Ezért kezdték, főleg dokumentumfilmekben kicsit megmozgatni a régi fotókat. Kis ráközelítés a fotón egy fontosabb részletre, kis svenk egyik területről a másikra, de olykor mondanivaló híján is használtak ilyen apró mozgásokat, csak mert sokkal izgalmasabb egy settenkedő állókép, mint egy kifagyott. Ez leginkább Ken Burns effektusként híresült el, de hamar tovább is fejlesztették, parallax effektusként, amit hívnak még 2,5 Dimenziós képnek is, vagy 3D Ken Burnsnek. Hasonlókkal foglalkoztunk régebb is a blogon, csak facebookos megjelenítéssel (itt,  meg itt). 


Emlékeim szerint, ugyan nem először, de nagy számban, szinte visszaélésszerűen a Walley uprising című filmben használták ezt az effektust, hiszen ott is rengeteg régi fotó alapján mutatták be a park mászótörténetét. Ez 11 éve még elég progresszív ábrázolásmódként hatott. Mi már jóval a film előtt találkoztunk a parallaxis effektussal, és milyen jól tettük, hogy pihentettük mostanig a témát, hiszen ma már nagyon gyorsan és könnyen lehet ilyeneket csinálni. Könnyebb a képről a plánokat is leválasztani (okosabb selection eszközök), könnyebb a hiányzó felületeket tartalomfüggő kitöltéssel retusálni, de könnyebb a videós effekteket is rárakni. 

Persze videókba bevágva jól mutatnak, de sima képként nem találtunk olyan platformot, ami kifejezetten az ilyen fotók megjelenítésére szolgálnának, csak a GIF jöhetne számításba, vagy beágyazott videó, viszont ebben az esetben semmiféle interaktivitás nem jöhet szóba, mondjuk egérrángatás, vagy mint például a Facebook parallaxis esetén, ahol a telefon billegtetése okozta a hatást. 

Azért megpróbáltuk egy netről nyalt HTML kóddal megegerelhetővé tenni a képet itt a Naplóban, sajnos a blogger nem teszi lehetővé az átlátszó PNG használatát, vagyis nem engedi a megfelelő CSS hozzáadását a templatehez (a template szerkesztésekor nincs Advanced/ Add CSS szekció, ahol orvosolni lehetne a dolgot). Szóval csak így néz ki a cucc. Ami zsákutca. Tehát egyelőre, amíg nem találunk erre megoldást (értsd, valaki nem kaparja ki nekünk a gesztenyét), addig maradnak a videós megoldások, mindenféle interaktivitás nélkül.


A tech részleteket, vagyis a plánok animálását innen nyaltuk. Gyakorlatilag annyi, hogy külön kell választani a plánokat rétegekre, a rétegeket timelinehoz kell adni, majd a transformra kattintva a kezdő és a záró-framet át lehet méretezni, pozicionálni.