Admin
7 agosto, 2013
In questo topic proviamo a stimare le vendite dei singoli in Italia con un modello creato e curato quotidianamente dallo staff del sito e dai suoi utenti. Se hai domande sul modello, se ti interessa sapere la stima di vendita di un determinato singolo o per qualsiasi altra cosa, lascia un commento a questo topic.
Se vuoi riportare queste stime altrove fai pure, Internet è un posto libero. Magari citandoci. Ricorda che i dati contenuti in questo topic sono delle stime e pertanto non rappresentano nulla di ufficiale.
Il topic si divide in tre sezioni: la previsione della classifica, la previsione delle certificazioni e le stime aggiornate. L'Opening Post è aggiornato con gli ultimi dati, per il topic puoi trovare i dati di tutte le settimane.
Settimana 29 - dal 15/7 al 21/7
#1 Cheap Thrills
#2 Sofia
#3 Vorrei ma non posto
#4 Andiamo a comandare
#5 Duele el corazón
#6 This Girl
#7 One Dance
#8 This One's For You
#9 This Is What You Came For
#10 I Took a Pill in Ibiza
Soooo... la sbaglierò, ma la tento: per me c'è Sia davanti. Mi escono circa 400 copie di distacco, ma le vite di Alvaro sono infinite e potrebbe benissimo arrivare la 10^ #1 oggi. Altro rischio che mi prendo è la #4 di Rovazzi su Iglesias (in questo caso solo 100 copie di differenza). Vedremo quante ne sbaglierò come va.
Altro: sale HFTW dei Coldplay grazie al remix (#11?), ma c'è Faded lì-lì che potrebbe strappare una ventunesima Top 10. Nulla accade dovrebbe resistere in Top 20, ma ci sono Wherever I Go e altre che potrebbero fare capolino ed essere delle novità tra le prime venti (tra cui Shawn Mendes?).
Sale Gazzè, che dovrebbe ormai essere a un passo dalla Top 20. Scende Comunque andare, poco sopra a Vivere a colori (in salita, diciamo Top 40 sicura?).
La Perry dovrebbe esordire in Top 30, la Spears somewhere in Top 50 (forse). Forse si affaccia Libre in Top 100, da cui dovrebbe ri-uscire S2S di Mengoni.
Come si legge la classifica: sono indicati graficamente attaccati i singoli molto vicini nelle stime, staccati quelli tra cui ci sono distanze più notevoli. Fino alla chiusura della settimana i dati sono comprensivi solo di iTune e Spotify, dal venerdì comprendono anche le altre piattaforme. I dati sono, naturalmente, delle stime e non rappresentano nulla di ufficiale.
Settimana 26 - dal 24/6 al 30/6
Fimi | settimana | 26 | ||
Fimi | canzone | stima | tot | cert |
TOP 20 | ||||
#1 | Sofia | 15.400 | 175.200 | 3xP |
#2 | Vorrei ma non posto | 14.500 | 141.500 | 2xP |
#3 | Cheap Thrills | 14.000 | 206.500 | 4PLATINO |
#4 | Duele el corazón | 12.900 | 122.100 | 2xP |
#5 | Andiamo a comandare | 11.300 | 51.300 | PLATINO |
#6 | One Dance | 10.100 | 88.900 | P |
#7 | Faded | 8.700 | 241.400 | 4xP |
#8 | This Girl | 8.400 | 37.300 | O |
#9 | This Is What You Came For | 8.400 | 64.600 | P |
#10 | This One's For You | 8.300 | 32.000 | ORO |
#11 | Can't stop the feeling! | 8.100 | 53.300 | PLATINO |
#12 | I Took a Pill in Ibiza | 7.800 | 134.500 | 2xP |
#13 | Hymn for the weekend | 6.600 | 178.300 | 3xP |
#14 | Cake by the Ocean | 6.300 | 106.700 | 2xP |
#15 | Light It Up | 6.000 | 146.600 | 2xP |
#16 | Don't let me down | 5.800 | 63.300 | P |
#17 | Spirits | 5.700 | 68.300 | P |
#18 | Fast Car | 5.600 | 144.400 | 2xP |
#19 | Nulla accade | 5.600 | 17.700 | |
#20 | No Money | 5.500 | 39.300 | O |
ITALIANE | ||||
#23 | Comunque andare | 4.700 | 85.800 | P |
#35 | Eres mía | 3.400 | 22.600 | |
#51 | Bomber | 2.200 | 10.700 | |
#56 | Big Boy | 2.100 | 22.700 | |
#57 | Ti sembra normale | 2.100 | 12.000 | |
#64 | Roma-Bangkok | 1.900 | 395.400 | 7xP |
#67 | Baciami | 1.700 | 11.600 | |
#72 | Io vivrò (senza te) | 1.600 | 18.000 | |
#74 | No Hero | 1.500 | 98.900 | P |
<100 | Solo due satelliti | 1.100 | 11.100 | |
<100 | Un'altra vita | 1.000 | 14.100 | |
<100 | Sul ciglio senza far rumore | 900 | 7.700 | |
<100 | Ti ho voluto bene veramente | 900 | 187.700 | 3xP |
<100 | Nessun grado di separazione | 800 | 71.800 | P |
<100 | Finalmente piove | 500 | 40.900 | O |
Come si leggono le certificazioni: la prima colonna rappresenta come si è classificata la canzone nella Fimi di questa settimana, la seconda colonna è il titolo, la terza la stima di quanto possa aver venduto questa settimana, la quarta il totale stimato. La quinta colonna indica in corsivo la certificazione attuale, in blu col punto di domanda la certificazione che, secondo le stime, potrebbe arrivare il lunedì. I dati sono, naturalmente, delle stime e non rappresentano nulla di ufficiale.
Settimana 26 - dal 24/6 al 30/6
Roma-Bangkok | 395.400 | 7xP |
Faded | 241.400 | 4xP |
Cheap Thrills | 206.500 | |
Ti ho voluto bene veramente | 187.700 | 3xP |
Sofia | 179.000 | |
Hymn for the weekend | 178.300 | |
Light It Up | 146.600 | 2xP |
Fast Car | 144.400 | |
Vorrei ma non posto | 141.500 | |
I Took a Pill in Ibiza | 134.500 | |
Duele el corazón | 122.100 | |
Cake by the Ocean | 106.700 | |
No Hero | 100.000 | |
One Dance | 88.900 | P |
Comunque andare | 85.800 | |
Nessun grado di separazione | 71.800 | |
Spirits | 68.300 | |
Don't let me down | 64.000 | |
This Is What You Came For | 63.600 | |
Can't stop the feeling! | 53.300 | |
Andiamo a comandare | 51.300 | |
Finalmente piove | 40.900 | O |
No Money | 39.300 | |
This Girl | 37.300 | |
This One's For You | 32.000 | |
Big Boy | 25.000 | |
Eres mía | 22.600 | |
Io vivrò (senza te) | 18.000 | |
Nulla accade | 17.700 | |
Un'altra vita | 16.000 | |
Ti sembra normale | 12.000 | |
Baciami | 11.600 | |
Solo due satelliti | 11.100 | |
Bomber | 10.700 | |
Sul ciglio senza far rumore | 7.700 |
Perché alcuni numeri differiscono dalla tabella precedente? Perché le stime vengono aggiustate dopo la pubblicazione delle reali certificazioni da parte di Fimi. Questa tabella viene pubblicata tra il lunedì e il martedì successivo alla fine della settimana in questione. I dati sono, naturalmente, delle stime e non rappresentano nulla di ufficiale.
Utente
7 agosto, 2013
E' partito tutto da due battute su un topic. Poi mi ha scritto Alex (per il quale questo post sarà una sorpresa) chiedendomi se parlavo seriamente e se ci stavo pensando. Si , ci sto pensando Solo che (forse ho in mente una cosa esagerata?) per fare un "modello" previsivo serio ci vuole parecchio tempo, idealmente qualche mese...
Per cui invece di dire "si ci sto pensando, si ci sto lavorando" tante volte nei prossimi giorni / settimane, ho pensato di scrivere qui il disegno complessivo e poi via via i passi che facciamo per tenere aggiornato l'avanzamento... anche perché potrebbe essere interessante e molto utile qualche contributo da parte di altri utenti del sito.
Intanto in questo primo "post" fissiamo quello che può essere l'obiettivo del "nostro" sistema di previsioni
Obiettivo / risultato da ottenere (cit.: é difficile arrivare in un posto se non sai dove stai andando)
Forse è molto ambizioso, ma l'obiettivo "a tendere" è quello arrivare ad avere il lunedi mattina una previsione della Top 50 digital download (quella che sarà pubblicata dopo 4 giorni il giovedì da fimi) ed una previsione della nuova graduatoria di certificazione digital del venerdì successivo (per capirci una lista come quella che si trova a questo link) http://www.fimi.it/app/uploads.....5-2015.pdf Ovviamente produrre questa ultima lista vuole anche dire avere previsto tutte le nuove certificazioni della settimana.
Una volta prodotto il modello di previsione, credo che si potrà anche elaborarlo tutti i giorni per avere informazioni in anticipo sulle certificazioni "maturate" prima della domenica sera; ovvero un secondo obiettivo - magari in un secondo tempo - è quello di identificare le certificazioni fin dal giorno in cui si raggiunge la soglia, senza nemmeno attendere il lunedi mattina.
Se riusciamo a fare tutto questo, e ad ottenere risultati attendibili, poi lo vendiamo alla fimi (just kidding! trad. "sto solo scherzando")
Utente
7 agosto, 2013
Seconda parte - RACCOLTA DATI E "RISULTATI" / I DATI DI BASE
Qui potrebbero veramente essere utili dei contributi da parte di tutti quelli che "scavano" sul web.
Intanto vediamo il problema - la raccolta dei dati è la parte più difficile, impegnativa ed è quella che assicura la qualità del risultato.
Dobbiamo stimare le nuove vendite settimanali. Per farlo si deve sommare:
> previsione vendite settimana precedente (che ahimè NON abbiamo dall'esterno, sarà un dato prodotto da noi)
+ stima vendite su piattaforma digital (iTunes, etc.)
+ stima streaming / 100 (spotify etc.)
Inoltre è importante raccogliere anche i "risultati", ovvero le classifiche Top 50 e gli elenchi di certificazione (questi è facile perché sono sul sito fimi). Questi "risultati" serviranno per confrontare le previsioni ottenute dal modello matematico con i dati reali e procedere a quello che si chiama "addestramento" del modello (ebbene si... parliamo/parleremo di "machine learning", per cui il modello matematico si "tara" automaticamente sui nuovi risultati migliorando la capacità di prevedere nel tempo).
Ritorniamo ai dati di base e pensiamo alle VENDITE (iTunes).
Che io sappia i dati disponibili sulle vendite provengono da queste fonti:
- kworb, che - fatto 100 il primo - aggiorna ogni circa 2/3 ore la proporzione di vendite dei primi 100 rispetto al primo.
- digital sales data - che di fatto aggiunge solo un dato, il numero delle vendite del primo (gli altri sono proporzionati secondo le percentuali di kworb)
- iTunes, si può avere la lista ordinata dei primi 200, senza valori né proporzioni (però rispetto ai primi 100 c'è una informazione aggiuntiva; chi è presente dal 101 al 200... i numeri a quel livello sono molto bassi...).
Domande per tutti voi:
1) Sapete se c'è un modo per ottenere i dati da kworb in forma "elettronica" (fogli excel o altro) e se i dati possono arrivare anche / fino ai primi 200?
2) Il dato delle vendite del #1 (digitalsalesdata) è disponibile da altre fonti? Anche qui: c'è una fonte "elettronica"?
3) Ci sono dati analoghi sulle "altre piattaforme" (google, amazon etc.)?
In prima battuta potremmo comunque (come faceva it charts) utilizzare solo kworb/digitalsalesdata ed aggiungere un x% al totale per tenere conto delle altre piattaforme. Questo x% sarebbe comunque oggetto di "taratura" automatica da parte del modello.
NOTA - Gli statistici dicono che per avere una "storia" sufficiente a tarare il modello, servono almeno 12 periodi (ovviamente meglio se sono di più); nel nostro caso ALMENO 12 SETTIMANE fimi ... ecco perché serve tanto tempo per avere un modello stabile e che non "spari" numeri del lotto
Banned
7 agosto, 2013
1) kinda statistica bayesiana direi, dove si aggiorna il modello in base all'esito n per ripartire più attendibili sulla tornata n+1, in maniera ricorrente.
2) Le classifiche di Google Play e Amazon sono disponibili sui due portali, non mi ricordo con quale frequenza si aggiornino, ma penso giornalmente (soprattutto il secondo)
3) Bisogna scegliere quante volte campionare alla settimane tutte le fonti e ciò dipende dal loro modo di aggiornamento. Per Spotify/Amazon ad esempio ci si adegua al loro ritmo giornaliero, mentre per Itunes è un po' più complesso perché, dopo aver dato un occhio ad Itunes per vario tempo penso che la classifica abbia due componenti:
a) lineare con la quantità di download, revolving in tempo quasireale cosicché se guardo la classifica alle 9 del lunedì e alle 9 del martedì, i downloads conteggiati in questa componente a non si overlappano
b) proporzionale alla derivata temporale della quantità di downloads, ossia la "velocità", quanti downloads macina una canzone ogni ora.
A volte Itunes mi da l'impressione che dia importanza anche a quanto veloce una canzone shoots in alto al suo esordio. Da questo punto di vista il peso delle due componenti potrebbe anche variare con il tempo, nel senso che il modello di Itunes, ad esempio, potrebbe dare importanza alla velocità nelle prime 24/48/72 ore e poi pian piano il suo peso d'importanza diminuisce e diventa più importante la quantità effettiva di downloads.
Punteggio per il ranking = (1-e^-k*t)*ndownloads + (e^-k*t)*velocità
Ma è solo una mia impressione/idea.
4) Dobbiamo definire uno scope del nostro modello, ossia identificare quello che vogliamo predire e pertanto poi tagliare quello che a) non ci interessa b) non ci aiuta c) ha un errore relativo / una fluttuazione troppo grande da diventare inutile. Così a naso, dato che dobbiamo prevedere una top 50, e Spotify caps at 50 la sua classifica, ha senso secondo me fermarsi alla 100 anche su Itunes e su tutti gli altri portali/siti. Che ne pensi steph? Secondo me collezionare dati dalla 101 alla 200 diventa un po' inutile.
5) pensare anche al grado di bontà del modello, dichiararlo e testarlo. Vogliamo una top 10 praticamente perfetta, una top 20 buona, una top 30 accettabile e una top 50 sensata ma suscettibile di fluttuazioni che non riusciamo a controllare perfettamente? In base a questa scelta data collecting può essere pure semplificato (esempio: assume Google play segue Itunes con un peso inferiore del chessò, 85% senza andare a campionare la sua classifica).
Utente
7 agosto, 2013
Hihihi con questa formula " Punteggio per il ranking = (1-e^-k*t)*ndownloads + (e^-k*t)*velocità " e l'accenno alla statistica baynesiana nei hai mandato KO un bel po' Speriamo di non restare solo noi due!
Quindi. Bene se ci sono i dati per google ed amazon; vuol dire che le copie complessive giornaliere da calcolare saranno date da iTunes + Google + Amazon + x; questa x è per tenere conto del totale di tutte le altre piattaforme, tipo le vendite Feltrinelli o altre, che immagino siano pochine (lasceremo calcolare al sistema quanto vale questo x%, ma credo che sarà un 1-2% in più al massimo... E' però importante calcolarlo perché se dovesse crescere, vorrebbe dire che ci sono dei canali di vendita che non stiamo monitorando a sufficienza).
La prima fonte di partenza per me però è iTunes ed in particolare la elaborazione fatta da kworb. Ovvero i dati a questo link. http://kworb.net/popit/
La rilevazione è aggiornata (come si vede al link ) più volte al giorno (ogni 2,2 ore circa, cioè 11-12 volte) da kworb (nickname di un ragazzo olandese di 29 anni - come dice il FAQ della pagina) che prende ed elaborai dati di Apple. Potremmo vedere - scrivendogli - se ci "parcheggia" o ci invia le sue rilevazioni o se possiamo prendere gli aggiornamenti da qualche parte (RSS?) quando vengono fatti... Navigando un po' le pagine si capisce che lui pubblica i primi 50 con le percentuali, ma gestisce per tutti i Paesi le posizioni dei primi 200 in classifica (che sono poi i dati che iTunes mette a disposizione sul sito)... Se poi ci fosse da qualche parte il dato delle vendite del primo in classifica, oppure quello dei download totali giornalieri, possiamo mettere insieme la matrice di kworb e questo dato di vendita per fare una simulazione e calcolare le copie giornaliere di download per tutti i primi 50 (che è poi quello che fa digitalsalesdata), o forse simulare addirittura i primi 200.
Io questi dati li raccoglierei TUTTI. La logica del "big data" con cui lavoro da un po' è quella di raccogliere il maggiore numero possibile di informazioni, salvo lasciare poi ai modelli matematici il calcolo della RILEVANZA delle varie fonti... se ci accorgeremo che a una fonte di dati verrà dato un "peso" matematico uguale a zero... beh valuteremo di eliminarla. Diciamo che vorrei evitare di fare io correlazioni perché escludere a priori non va molto bene... la pratica dimostra che troppo spesso ci si sbaglia o non si tiene conto di alcuni fenomeni.
EDIT . Nel frattempo ho trovato in Amazon la top 100 che viene AGGIORNATA OGNI ORA http://www.amazon.it/gp/bestse.....sic-track/
Su google addirittura una Top 300, che con "mostra altro" arriva a 540 brani... https://play.google.com/store/music/collection/topselling_paid_track
Purtroppo qui c'è solo l'ordine di classifica ma non un dato numerico di vendite
Admin
7 agosto, 2013
io ho capito a tratti (ho avuto solo tre esami di statistica e se andate troppo nello specifico non vi seguo), ma sto cercando online articoli che spieghino quali sono gli store più usati, per avere un'idea di che percentuali usare. In Italia non ho ancora trovato molto, nel mondo questo del 2013:
http://www.digitaltrends.com/a.....ic-online/
66% iTunes, 22% Amazon. Mi sembra abbastanza credibile.
Utente
7 agosto, 2013
Alex87 ha detto
io ho capito a tratti (ho avuto solo tre esami di statistica e se andate troppo nello specifico non vi seguo), ma sto cercando online articoli che spieghino quali sono gli store più usati, per avere un'idea di che percentuali usare. In Italia non ho ancora trovato molto, nel mondo questo del 2013:http://www.digitaltrends.com/a.....ic-online/
66% iTunes, 22% Amazon. Mi sembra abbastanza credibile.
Eh vedi? Io credevo iTunes 75-80%... A questo punto potrebbe essere 88% la somma di questi 2 e un 12% tra google play e gli altri.
Certo più DATI CERTI riusciamo a raccogliere e meglio è... però queste percentuali possiamo poi validarle ed aggiornarle con il modello confrontando i risultati (previsioni) che produciamo rispetto ai dati ufficiali fimi.
Vediamo se vi perdo tutti... oppure no, cerco di essere più semplice che posso e vi spiego un'altra cosa (prometto per oggi è la ultima).
Ammettiamo che il dato di 1 settimana di vendite sia la somma di iTunes, Amazon e Google. Possiamo fare una tabella - colonna 1 - posizioni su iTunes, 2 - Amazon, 3 - google. Mettiamo poi delle regole per calcolare la classifica top 50 settimanale (in linea di massima le regole saranno delle somme di dati e delle medie); calcoliamo poi la nostra previsione moltiplicando la colonna di iTunes per il 70% (x), quella di Amazon per il 20%(y) e l'ultima di Google ed altro per un 10& (w) (il totale deve fare 100%) e poi sommiamo tutto. Avremo la "nostra" Top 50 stimata.
Se quando esce fimi inseriamo il risultato effettivo possiamo partire dal risultato e fare girare il modello al contrario, ovvero... come devo modificare il 70-20-10 per ottenere esattamente il risultato finale? Il modello ci darà una serie di possibili risultati (che so invece di 70-20-10, dirà che il risultato è più preciso usando 68-21-11, ovviamente con totale sempre 100%). Facendo questo "gioco" di calcolo alla rovescia più volte, il sistema affina sempre di più i "pesi" (le percentuali) da applicare per una previsione ottimale. Per quello questi modelli si chiamano "machine learning"... perché la "macchina" impara... dandole "in pasto" i risultati, i "pesi" del modello vengono migliorati e ritarati ogni volta che viene inserito un risultato "vero" che si può confrontare con la previsione calcolata. Il sistema (basato su reti neurali) individua i parametri "giusti" perchè il modello riesca a calcolare senza errori tutti i risultati che lui conosce... chiaro che se il modello riesce a "stimare" 15 o 20 periodi passati producendo IL risultato reale, sarà molto probabile che "centri" anche i prossimi periodi...
Questa è / sarà la logica degli strumenti da utilizzare. E ribadisco ancora... fare il sistema non dovrebbe essere lungo, sarà invece lunga la "messa a punto"; magari ci troveremo anche nel tempo a dovere aggiungere altri vincoli o altre regole per migliorare le previsioni (esempio, ogni volta che una canzone diventa disco d'oro sappiamo che il totale vendite è oltre 25,000 e via così con gli altri livelli di certificazione... questi sono altri "risultati" importanti di cui tenere conto per dare informazioni in più al modello)
Utente
7 agosto, 2013
Alex87 ha detto
esattoe per lo streaming come ci si regolerà? Spotify 2:1 Deezer? Poi arriverà Apple Music da domani a complicare la vita
Ecco perché ci vuole un computer e dei modelli matematici....
Calcoli a mano non se ne parla ma anche mettersi a simulare su dei fogli Excel non si va molto lontano... alla fine mi aspetto un numero di variabili non piccolissimo
Però dopo aver detto tutte queste cose, mi viene da pensare che per partire un po' prima potremmo farci guidare da un famoso metodo /concetto, detto KISS (sigla in gergo di Keep It Simple Stupid... ). In questo caso potrebbe avere senso che iniziamo solo con iTunes e Spotify (ipotizzando che gli acquisti su tutte le piattaforme abbiano più o meno lo stesso andamento), salvo sofisticare la cosa un po' alla volta, anche per non perdere il controllo...
Banned
7 agosto, 2013
tutto fila liscissimo, ed è davvero semplice come dice Steph perché alla base c'è semplicemente Bayes tanto bistrattato in vita quanto utilissimo ora (e non solo qui su RH)!
L'unica cosa è che non sono sicuro che quell'88% sia attendibile per l'Italia: in US Amazon va forte per il digitale, qui mi pare molto meno, quindi boh. Io darei Itunes 80% Amazon 10% etc.. Non c'è un comunicato FIMI che parla di mercato digitale?
È importante perché più il nostro modello di partenza (il 70-20-10 che assumiano all'inizio del ciclo) è buono, più velocemente arriveremo al sistema giusto e rischiamo anche meno: un po' alla ottimizzazione numerica maniera non vogliamo che il nostro sistema possa partire da un erroneo 80-10-10, intuisca l'errore ma stimi poi un successivo 60-30-10 altrettanto sbagliato, ma dall'altra parte della bilancia e poi continui senza convergere.
Utente
7 agosto, 2013
ouro ha detto
tutto fila liscissimo, ed è davvero semplice come dice Steph perché alla base c'è semplicemente Bayes tanto bistrattato in vita quanto utilissimo ora (e non solo qui su RH)!L'unica cosa è che non sono sicuro che quell'88% sia attendibile per l'Italia: in US Amazon va forte per il digitale, qui mi pare molto meno, quindi boh. Io darei Itunes 80% Amazon 10% etc.. Non c'è un comunicato FIMI che parla di mercato digitale?
È importante perché più il nostro modello di partenza (il 70-20-10 che assumiano all'inizio del ciclo) è buono, più velocemente arriveremo al sistema giusto e rischiamo anche meno: un po' alla ottimizzazione numerica maniera non vogliamo che il nostro sistema possa partire da un erroneo 80-10-10, intuisca l'errore ma stimi poi un successivo 60-30-10 altrettanto sbagliato, ma dall'altra parte della bilancia.
Esatto.
Come scrivevo più DATI CERTI riusciamo a raccogliere e meglio è. Mi riferivo anche e soprattutto a queste percentuali. Anche se le possiamo fare migliorare, meglio avere ad esempio un "range" (non vorrei che lasciato libero il sistema mi vada a proporre il 90% di google play, non si può mai sapere!!!)
Utente
2 aprile, 2015
http://www.macitynet.it/Musica.....pa_iTunes/
Amazon dovrebbe vendere il 5% di itunes
dato del dicembre 2008
Banned
7 agosto, 2013
undri ha detto
oddio ragazzi io vi ho capito ovviamente lascerò fare a voi, ma giuro che ho capito tutto
tranne la formula me la spiegate?
Punteggio per il ranking = (1-e^-k*t)*ndownloads + (e^-k*t)*velocità
ma tu fai il classico, sei perdonato
se mi dai un po' di tempo ti faccio un grafichetto e ti spiego. In pratica sono due contributi, il secondo è importante all'inizio (il suo peso vale 1 a t=0 perché l'esponenziale di 0 vale 1) e poi decade di importanza esponenzialmente; il primo invece parte a zero e poi cresce fino a "raggiungere" l'importanza 1 a tempo tendente a infinito.
Most Users Ever Online: 2564
Currently Online:
305 Guest(s)
Currently Browsing this Page:
2 Guest(s)
Top Posters:
Olimpico85: 46279
pesca: 33056
KassaD1: 26574
xello: 25444
pazzoreality: 24095
Newest Members:
Thomas
Premier Rides
andamanyatra holidays
Nand Lal
alann
Forum Stats:
Groups: 6
Forums: 207
Topics: 26797
Posts: 1388074
Member Stats:
Guest Posters: 7
Members: 22798
Moderators: 9
Admins: 3
Administrators: RealityHouse, Alex87, mariomatt
Moderators: sadida83, Fob92, BB, Latinista, Alby, amers, Edre, monechiapi, Capo Horn