Daria (curly_ezik) wrote,
Daria
curly_ezik

Category:

Big Data

Один мой коллега рассказал о проводимом под его руководством проекте. Задача была - выяснить влияние определенного токсиканта на определенный морской беспозвоночный организм. Было решено подойти к вопросу основательно: ряд концентраций, разная длительность экспозиции, с десяток различных тканей, и разные стадии онтогенеза. В качестве метода использовали микроаррей - то есть анализировали около сотни различных генов. В итоге получили - белый шум. После многолетнего и очень мучительного разбирательства с использованием самых извращенных изощренных статистических методов было принято решение отбросить 90% данных - тогда стали видны очертания какой-то картины.
Вопрос - стоила ли игра свеч? Мы стараемся углубиться в поиски проблемы, но в итоге закапывамся все глубже. Да, мы не знаем, что найдем в итоге (то есть, мы предполагаем, что найдем никель, а находим медь), нам не хватает знаний о природе, мы не в состоянии переварить всю эту информацию, ведь за любым статистическим методом с применением супер-компьютера должен стоять супер-мозг, им руководящим. Все эти вопросы вплывают сейчас перед биологами в эпоху Big Data. Конечно, я не призываю отказаться от скрининговых инструмнтов и вернуться к основам. Даже наоборот - я являюсь ярым фанатом этого магического слова "Ом". Однако, очевидно, закидывать омные сети необходимо аккуратно, каждый раз вытаскивая по нескольку десятков-сотен рыбок, а не стараться выловить весь океан сразу  - и тут же разгадать все секреты океана.
Как вы считаете?
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 5 comments