Is dr een E-Book?????
Moet niks van boeken zelf hebben...
Maar wil het verhaal wel 's lezen.
Ik denk trouwens, dat het wel mogelijk is, alleen niet met de standaarden van nu. Ik denk dat de uitvinder hier, een heel ander beeld van eea heeft gehad. Die heeft het niet alles zwart/wit gezien. Maar welke technieken hij heeft gebruikt, is onbekend.
Narotic: Misschien doel jij op de Shanon theorie???
http://cm.bell-labs.com/cm/ms/what/shannonday/work.html
Ik acht het niet onmogelijk als je deze theorie ter hand neemt. Maar een compressie ratio can 200.000 lijkt me wel heel veel. Je kunt wel blokjes data een code geven, maar als er een miljoen combinaties zijn, heb je wel iets van 512 bits nodig, om dat blokje te coderen.
Dat is ook de manier waarop ZIP bv werkt. Bit reeksen een code meegeven zodat alleen de code gebruikt hoeft te worden om data op te slaan. Wat dan de afspraken zijn vd code kun je in de file zelf, of extern (codec bv) opslaan.
Maaar hij wrkte met video. 25 beeldjes per seconde. Veel van die beeldjes zijn hetzelfde. Je hoeft dus niet ieder beeldje apart op te slaan. Je kunt ook alleen de veranderingen opslaan. De manier waarop MPG geloof ik werkt.
Maar ff een filmpje van 700MB (en die is al gecomprimeerd!) op een kaartje van 1KB???? opslaan lijkt me stug. Zal vast meer geweest zijn.
Leuk voorbeeld:
Neem een boek, met 1 miljoen woorden, met een woord lengte van gemiddelt 8 letters/characters incl. spaties en leestekens. Betekend 8 miljoen tekens. Volgens de Shannon theorie kan het Engelse alphabet tot max 1,5bit gecomprimeerd worden. Dat is in dit geval dus 12 miljoen bits, gedeelt door 8 is 1.500.00 byte. En dan betreft het hier een boek.... Met video zijn meer combinaties mogelijk, mat met letters en cijfers....
Liet mn gedachten ff de vrije loop, als ik het bij het verkeerde eind heb, moet je t zeggen.....
Moet niks van boeken zelf hebben...
Maar wil het verhaal wel 's lezen.
Ik denk trouwens, dat het wel mogelijk is, alleen niet met de standaarden van nu. Ik denk dat de uitvinder hier, een heel ander beeld van eea heeft gehad. Die heeft het niet alles zwart/wit gezien. Maar welke technieken hij heeft gebruikt, is onbekend.
Narotic: Misschien doel jij op de Shanon theorie???
http://cm.bell-labs.com/cm/ms/what/shannonday/work.html
Ik acht het niet onmogelijk als je deze theorie ter hand neemt. Maar een compressie ratio can 200.000 lijkt me wel heel veel. Je kunt wel blokjes data een code geven, maar als er een miljoen combinaties zijn, heb je wel iets van 512 bits nodig, om dat blokje te coderen.
Dat is ook de manier waarop ZIP bv werkt. Bit reeksen een code meegeven zodat alleen de code gebruikt hoeft te worden om data op te slaan. Wat dan de afspraken zijn vd code kun je in de file zelf, of extern (codec bv) opslaan.
Maaar hij wrkte met video. 25 beeldjes per seconde. Veel van die beeldjes zijn hetzelfde. Je hoeft dus niet ieder beeldje apart op te slaan. Je kunt ook alleen de veranderingen opslaan. De manier waarop MPG geloof ik werkt.
Maar ff een filmpje van 700MB (en die is al gecomprimeerd!) op een kaartje van 1KB???? opslaan lijkt me stug. Zal vast meer geweest zijn.
Leuk voorbeeld:
Neem een boek, met 1 miljoen woorden, met een woord lengte van gemiddelt 8 letters/characters incl. spaties en leestekens. Betekend 8 miljoen tekens. Volgens de Shannon theorie kan het Engelse alphabet tot max 1,5bit gecomprimeerd worden. Dat is in dit geval dus 12 miljoen bits, gedeelt door 8 is 1.500.00 byte. En dan betreft het hier een boek.... Met video zijn meer combinaties mogelijk, mat met letters en cijfers....
Liet mn gedachten ff de vrije loop, als ik het bij het verkeerde eind heb, moet je t zeggen.....
laatste aanpassing
De manier waarop MPG geloof ik werkt.
MPEG4 werkt op deze manier, met Keyframes, Predictionframes en bij XviD zelfs Bilinear frames (Prediction zowel vooruit als achteruit). Kortgezegd komt het erop neer dat het beeld in vierkanten wordt opgedeeld en in sequentiele frames hiervan een richtingsvector bepaald wordt. Je bepaalt dan de predictionframes aan de hand van de voorgaande frame.
Daarnaast denk ik dat jij op Huffman Encoding doelt bij compressie, ik vermoed dat het zip formaat dit ook gebruikt. Huffman encoding wordt al gebruikt in MP3 en JPEG, dit zou dus verklaren waarom een MP3 zippen over het algemeen geen nut heeft (net als Avi en JPEG).
Shannon's coding werk ken ik echter niet (slechts zijn formule voor maximale dataoverdracht). Zoals ik in je link lees heeft hij wel een theorie over maximale encodering.
Ik blijf bij mijn standpunt dat dit niet mogelijk is, de beweerde compressie factor is gewoon veel te extreem. Ik daag mensen die het tegendeel beweren dus ook uit om met wat theorie te komen
Net zoals er voor een stuk tekst maar een beperkt aantal karakters beschikbaar is, wordt een film uit een eindig aantal kleuren en geluiden opgebouwd. Al die basisgegevens werden in vijf algoritmes in vijf verschillende geheugens opgeslagen. Bij de opslag van films zou ieder algoritme een maximale omvang van 74 megabyte krijgen. In totaal dus 370 megabyte: de motor van de vinding. Het enige wat nodig was om die te starten was een passende sleutel. Sloot berekende voor iedere bladzijde van een boek, of ieder beeld van een film, een unieke code waarvan het geheel ook weer resulteerde in een unieke code. Die laatste code, de sleutel, nam slechts één kilobyte geheugen in beslag, ongeacht de lengte van de film of de dikte van het boek.
Zoals ik het nu dus begrijp, en wat ik eigenlijk ook al dacht, is dat ie een basis had. 5 algorythmes die totaal 370mb in beslag nemen. Ik kan me dan wel voorstellen, dat je dan maar een paar sleuteltjes nodig hebt, die een kilo byte inbeslag neemt.
http://www.tweakers.net/nieuws/35515
Nou, inmiddels ook al een wetenschappelijke onderbouwing dat het niet kan
Nou, inmiddels ook al een wetenschappelijke onderbouwing dat het niet kan
Ik heb het boek laatst gekocht en ben er mee bezig..
Ik geloof ondanks dat meerdere experts beweren dat het onmogelijk is, het 'm toch gelukt is...
Dat was juist de uitvinding, hij had iets gemaakt wat 'niet' kon..
Je gaat toch niet alle grote bedrijven in de wereld af om mensen voor de gek te houden, vroeg of laat komen ze er toch achter.. En dan ben je alsnog zwaar de lul...
Ik weet dat T-nus het boek ook heeft gelezen, dat staat in een ander topic hierover:
Broncode documantaire Netwerk
Hier zijn de links voor Documentaire die Netwerk er over gemaakt heeft!
Deel 1
Deel2
Check ze, zijn 'n mooie docu!
Ik geloof ondanks dat meerdere experts beweren dat het onmogelijk is, het 'm toch gelukt is...
Dat was juist de uitvinding, hij had iets gemaakt wat 'niet' kon..
Je gaat toch niet alle grote bedrijven in de wereld af om mensen voor de gek te houden, vroeg of laat komen ze er toch achter.. En dan ben je alsnog zwaar de lul...
Ik weet dat T-nus het boek ook heeft gelezen, dat staat in een ander topic hierover:
Broncode documantaire Netwerk
Hier zijn de links voor Documentaire die Netwerk er over gemaakt heeft!
Deel 1
Deel2
Check ze, zijn 'n mooie docu!
laatste aanpassing
Het is gewoon een uit de hand gelopen grap.
Reden dat ik het nie geloof is dat ik het verhaal 6 jaar geleden ook al heb gehoord en het toen ook niet geloofwaardig vond.
Reden : als het mogelijk was, is er altijd wel iemand anders van op de hoogte, je kan zoiets nooit alleen doen.
en als we ockhams razor gebruiken blijft er helemaal niets meer van over.
Reden dat ik het nie geloof is dat ik het verhaal 6 jaar geleden ook al heb gehoord en het toen ook niet geloofwaardig vond.
Reden : als het mogelijk was, is er altijd wel iemand anders van op de hoogte, je kan zoiets nooit alleen doen.
en als we ockhams razor gebruiken blijft er helemaal niets meer van over.
deTuinman teleportatie is in ontwikkeling,
Teleportatie zal sowiezo van het 300.000 km/ps theorie van het licht af moeten gaan waardoor je je teleporteert. Dus sneller dan het licht nee
Het is gewoon een uit de hand gelopen grap.
Mja zo zwart op wit wil ik het niet zien. Ik denk persoonlijk dat deze man daadwerkelijk dacht het gevonden te hebben.
Of ik het geloof nee... want zoals narotic en Chris P al zeiden
Wiskundig kan het toch niet.
.En jah ik ken het complot theorie verhaal maar ook het bewijs verhaal zoals op Tweakers wordt uitgelegd. En persoonlijk ga ik voor wiskunde boven fantasie
toch schijnt het dat het licht onder bepaalde omstandigheden sneller of langzamer kan gaan, de snelheid van zeg 300.000 km/sec is niet constant.
Sneller of langzamer zal niet om snelheden gaan van 100.000 km/ps sneller of langzamer
laatste aanpassing
wat zou er gebeuren als je met hex dec waarde's gaat rekenen in een binair stelsel..
dus dat iedere karakter in een binaire waarde niet 0 of 1 is maar een waarde kan hebben van 0 tot 9 en A tot F..
Enig idee hoeveel meer mogelijkheden je dan krijgt..
dus dat iedere karakter in een binaire waarde niet 0 of 1 is maar een waarde kan hebben van 0 tot 9 en A tot F..
Enig idee hoeveel meer mogelijkheden je dan krijgt..
Je kan niet met hexdec waardes rekenen in een binair stelsel, dan is het geen binair stelsel meer maar een hexadecimaal stelsel. Bovendien heb je dat stelsel als je gewoon 4 bits samen een naampje geeft. Daarnaast kan een bit geen andere waardes dan binaire waardes aannemen, bit staat immers voor Binary digIT.
Het resultaat als ik dat doe is dat ik dus 4 keer zo weinig posities nodig heb (immers 16 = 2^4). Echter, hexadecimaal kan je zo omrekenen naar binair en dus kan je de opslag dan ook in bits uitdrukken.
Maar wat grappig is, is dat alle films op een CD zouden passen en een CD heeft nou eenmaal een opslag in bits.
En dat er met bits gewerkt MOET worden is ook onzin (kijk maar naar het menselijk brein)
Ik zal hierbij eerst Bill Gates maar quoten:
I don't think there's anything unique about human intelligence.
All the neurons in the brain that make up perceptions and emotions operate in a binary fashion.
All the neurons in the brain that make up perceptions and emotions operate in a binary fashion.
Het klopt dat we niet perse met bits moeten werken, maar je kan elke opslag wel in bits uitdrukken en een bewering dat alle films op een CD zouden passen is precies dat. Dus wordt een link gelegd tussen de hoeveelheid data (in bits) die een film in zou nemen.
Aan de andere kant zijn wij nog altijd wel verplicht als het digitaal is om in bits te werken. Dit omdat er nog geen transistoren (verkrijgbaar) zijn die met een ander getallenstelsel kunnen rekenen. Bovendien is de huidige IT gebaseerd op het binaire stelsel, kijk maar naar OR, AND, XOR gates e.d.
Volgens mij wil iedereen graag in een complot geloven, want deze hele uitvinding lijkt niets meer te zijn dan wat gebakken lucht.
Ik geloof het hele verhaal ook niet,
Zijn we het daar tenminste over eens
maar ik denk wel dat het in de nabije toekomst zeker mogelijk zal zijn
Ik zie persoonlijk de tendens meer richting nog meer opslag gaan, naast betere kwaliteit natuurlijk.
De grootste ontwikkeling voor IT zie ik in quantum computing, maar om daar hier nou over te gaan discussieren is ook weer erg offtopic
van quantum mathematics weet ik zo goed als niks, maar wel dat het absurd is.
stel een bal rolt constant heen en weer in een soort half-pipe. volgens quantum mathematics is er een kans dat ie ineens in door het hout schiet. Het zou 1 keer in de (100*de tijd dat de aarde bestaat) kunnen gebeuren, maar onmogelijk is het dus niet.

Dit soort gekke shit bedoel ik.
stel een bal rolt constant heen en weer in een soort half-pipe. volgens quantum mathematics is er een kans dat ie ineens in door het hout schiet. Het zou 1 keer in de (100*de tijd dat de aarde bestaat) kunnen gebeuren, maar onmogelijk is het dus niet.
Dit soort gekke shit bedoel ik.
Zoveel films zal NOOIT kunnen op 64Kb. Wat wel zou kunnen is een soort chipje van DNA achtige shit (toekomst praat). Hier zou dan een aantal GB op kunnen in een blokje van 1x1MM ofzo. In ieder geval vette shit. Zelfs dit kan nu nog niet, maar zou wel in de toekomst kunnen gebeuren...
En nu we het toch over 64Kb hebben:
Ik heb nog een "leuk filmpje" op 64Kb LINK
enjoy!!
En nu we het toch over 64Kb hebben:
Ik heb nog een "leuk filmpje" op 64Kb LINK














