Consultar ensayos de calidad


Deep Web - ¿Qué es la Deep Web?, ¿El lado oscuro?



¿Qué es la Deep Web?
Muy poca gente habla de la Deep Web, y son muchas menos personas las que saben de qué se trata, o que alguna vez se han internado en ese maravilloso mundo virtual. Mucha gente piensa que todo esta aquí, en la Internet pública, que todo se puede encontrar gracias a Google, incluso muchos dicen que “si no esta en Google, no existe“. Pero lo cierto es que estan profundamente equivocados, lo que vemos a diario es “el lado lindo” de la Internet, el lado oscuro de la red de redes esta mucho mas alla de su visión… o mejor dicho del conocimiento de la mayoría.

Se trata de un mundo virtual oculto, al que para acceder, mas que una habilidad o experiencia con sistemas informaticos, se trata de conocer las herramientas adecuadas. Siendo totalmente honesto mis ingresos a la Deep Web son de forma muy ocasional, siempre protegido y con la mente MUY abierta para digerir el material que pudiera llegar a encontrar en esos lugares, en el bajo mundo de Internet se puede ver, escuchar, comprar, contratar y “lavar” de todo.


Pero, ¿Qué es la Deep Web?
También conocida como Deepnet, Invisible Web, Dark Web o Hidden Web la deep web no es otra cosa que todo aquello que no aparece en la Internet convencional, es decir, en la “superficie” deInternet, con superficie nos referimos a todo aquello que podemos encontrar gracias a los motores de búsqueda, como Google. Este sitio, por ejemplo, esta en google, así que se encuentra en la “superficie” de Internet.


Según Wikipedia, un estudio llevado a cabo en 2001 por BrightPlanet estimó que la deep web contenida 500 veces mas recursos que los indexados por los motores de búsqueda. Estos recursos, ademas de encontrarse en cantidad, generalmente son de calidad. Para 2008 la llamada Web “invisible” no indexada por los motores de búsqueda se estimaba en un 75% de toda la Internet, cerca de un billón de paginas no referenciadas de forma pública.
En la actualidad, estudios de la Universidad de Berkeley estiman que la Internet profundatiene un tamaño de 91,000 TeraBytes.
La gran pregunta es, ¿qué se esconde en la Internet profunda? ¿Qué es tan confidencial que no puede revelarse al dominio público? Claro, probablemente haya muchos sitios de amigos, comunidades, sitios con tematica especifica o de compañías que no quieren ser molestadas. Pero…
¿El lado oscuro?


En 4chan, el imageboard mas popular de la red, hubo alguna vez un tema que trataba un foro de crackers, al que solo dé podía acceder mediante un decodificación especifica (una especie deprueba para asegurarse de que no cualquiera entrara). Y en este foro se compartían todo tipo de programas, tales como virus y todo tipo de software malicioso cuyo fin era meramente financiero.

3. Goals of the Tutorial
The purpose of this tutorial was to help software engineers understand and avoid common mistakes with case studies by giving them a solid grounding in the fundamentals of case studies as a research method. For researchers, our goal was to provide them a starting point for learning how to conduct case studies. When they return to their home institutions, they would be able to


find, assess, and apply appropriate resources in designing their studies. For reviewers, our goal was to providethem with guidance on how to judge the quality and validity of reported case studies. They would be able to use the criteria presented in this tutorial to assess whether research papers based on case studies are suitable for publication, allowing them to raise the quality of publications and give appropriate feedback to authors. For practitioners, our goal was to provide a better awareness of how to interpret the claims made by researchers about new software engineering methods and tools. We also aimed to offer practitioners deeper insights into the roles they can play in designing and conducting case studies in collaborative research projects, and the ability to read case studies more effectively and be better able to identify results suitable for use in their workplace.

4. Format and Curriculum
During this full-day tutorial, time was divided evenly between lecture and discussion. The lectures drew on our experience with empirical studies, research methodology texts, and papers from the software engineering literature. The tutorial covered a range of topics on the design and implementation of case studies. It started with issues common to all empirical studies, moved on to ones particular to case studies, and concluded with an examination of practical issues. The curriculum included the following topics. • Research Methodology o Strategies for Software Engineering Research o Approaches for Empirical Studies • Case Study Fundamentals o Exploratory Questions o Validation • Designing Case Studies o ResearchContext o Validity o Ethical Issues o Data Gathering and Analysis • Publishing Case Studies o Preparing Evidence o Elements of the Report • Reviewing Case Studies o Replication The primary text used for the tutorial was Case Study Methods 3/e, by Robert K. Yin [3]. This book is a respected resource on case studies and is widely cited both inside and outside software engineering. The lessons were reinforced by small group sessions where participants examined and discussed case studies that have been published in software engineering conferences and journals. The following papers, in our opinion, are exemplary research case studies:

Matthias M. Müller and Walter F. Tichy, “Case Study: Extreme Programming in a University Environment,” presented at Twenty-third International Conference on Software Engineering, Toronto, Canada, pp. 537-544, 12-19 May 2001. Carolyn B. Seaman and Victor R. Basili, “An Empirical Study of Communication in Code Inspections,” presented at Nineteenth International Conference on Software Engineering, Boston, MA, pp. 96-106, 17-23 May 1997. D.N. Card, V.E. Church, and W.W. Agresti, “An Empirical Study of Software Design Practices,” IEEE Transactions on Software Engineering, vol. 12, no. 2, pp. 264-271, 1986. Sallie M. Henry and Dennis G. Kafura, “Software Structure Metric Based on Information Flow,” IEEE Transactions on Software Engineering, vol. 7, no. 5, pp. 545-522, September, 1981. During the break-out sessions, the tutorial was divided into three discussion groups, each led byone of the instructors. These smaller groups increased the amount of interaction and allowed the material to be tailored to the students. [At time of writing, we were planning to have tracks for investigators, reviewers, and practitioners, however, this may change depending on the demographics of the tutorial attendees].

5. Conclusion
Case studies are an empirical method in their own right, with established design principles. Even for studies that are properly called case studies, there are often problems with selecting a unit of analysis, validity of results, data observation and collection. This tutorial sought to address these issues, because case study is a method that is wellsuited to software engineering. It is particularly appropriate when we seek to understand how and why technology is used or not used, functions or does not function in contemporary settings, and where we have little or no control over the variables. Our discipline can only be improved by the addition of high-quality, published cas Pero eso en términos de gravedad es lo mas mínimo, en la deep web hay mucho material ilegal, hay un sitio muy curioso, una especie de “Wikipedia” de la deep web en la que se pueden encontrar todo tipo de enlaces a sitios ocultos: asesinatos por encargo, venta de drogas, prostitución, lavado de dinero, canibalismo, sacrificios humanos, películas snuff, trafico de órganos humanos y cualquier clase de cosa ilegal que uno de pueda imaginar.
Si, en las profundidades de la web se puede encontrar de todo, especialmente el lado mas oscuro de la mente humana y perversa, pero también hay cosas buenas, como la investigación científica y tecnológica, las bibliotecas digitales, bases de datos, material de las universidades, informes de estudios científicos recientes etc…
Lo anterior debería haber sido suficiente para frenarte y quitarte las ganas de entrar en la deep web, pero si aún tienes curiosidad puedes investigar sobre Thor Tor Project y los enlaces .onion como dije al principio, con la mente MUY abierta y con mucha cautela ya que es un mundo plagado de “peligros”.


Política de privacidad