Como dijo Michael David Cobb Bowen, “big data” es un término de marketing, no un campo de investigación.
Las críticas de Nassim son válidas, pero no se aplican a lo que la gente más cuidadosa quiere decir hoy cuando usan el término big data.
Está hablando de investigadores que utilizan técnicas estadísticas convencionales en cientos o miles de variables, todas las cuales se supone que son significativas individualmente.
- ¿Es un "milagro" cuando una persona en particular gana la lotería? ¿Por qué o por qué no?
- Como cualquier sistema / evento puede considerarse como una función de onda, ¿podemos postular que nunca existió antes de que se midiera / colapsara con respecto a un observador dado?
- Biología Evolutiva: ¿Qué piensan los biólogos evolutivos de VHEM?
- ¿Por qué es extraña la entropía?
- ¿Los físicos siempre siguen la Ley de la Parsimonia, que la explicación más simple es la más probable para ser cierta, para llegar a sus conclusiones?
Big data hoy en día generalmente significa usar técnicas de aprendizaje automático en terabytes de observaciones, a menudo con pocas variables (en big data, la distinción entre variables y observaciones no siempre es clara) y poca teoría para sugerir cuáles, si las hay, son significativas.
Ciertamente, es posible que el aprendizaje automático se confunda con la aplicación de grandes cantidades de datos, pero no por la misma razón por la que los estudios de observación generalmente no tienen sentido o porque el uso práctico de la información genética está a la expectativa.