Anúncio
Anúncio

Mais conteúdo relacionado

Similar a Ocean Data Factory Sweden(20)

Mais de Robin Teigland(20)

Anúncio

Ocean Data Factory Sweden

  1. An Ocean of Opportunity Ocean Data Factory Dr. Torsten Linders, Gothenburg University (ODF Coordinator) Professor Robin Teigland, Chalmers University of Technology (ODF Director) Robert Rylander, RISE (Research Coordinator) Peter Karlsson, Combine (AI Coordinator)
  2. Today’s presenters ODF Research Coordinator Robert Rylander Researcher RISE, Maritime Research Nautical Officer Shipping Digitalization Expert ODF Director Robin Teigland Professor, Mgt of Digitalization Chalmers University of Technology Co-founder Peniche Ocean Watch Blue Circular Economy Innovation Initiative ODF Coordinator Torsten Linders Oceanographer and Researcher Gothenburg University Coordinator SCOOT – Swedish Center for Ocean Observing Technology ODF AI Coordinator Peter Karlsson CEO Combine Board Member Combine Control Systems AB
  3. Why does Sweden need ”Ocean Data Factory”? • Increasing global interest in ocean and its potential • Global ocean economy predicted to reach USD 3 trillion by 2030 • Ocean health is critical for global economic and food security and to reach UN 2030 goals yet we know so little • >80% of our ocean is unmapped, unobserved, and unexplored, and 90% of ocean species yet to be classified • Ocean labs created around globe facilitate collection and use of ocean data • National and private ocean data labs in majority of coastal countries, e.g., Australia, Canada, UK, Japan • Regional initiatives, e.g., Africa, Caribbean, South America • BigDataOcean, an EU Horizon 2020 consortium, includes 10 EU countries but no Nordic countries • Sweden has no ocean data lab • General lack of awareness in Sweden around innovation opportunities that ocean and application of AI/ML/NN to ocean data offer • Sweden risks losing out on enormous ocean potential as well as ability to influence development of ocean in sustainable way
  4. The ocean is in a critical state • Climate change, fishing, pollution, and other human factors have damaged 96% of world’s oceans, with 41% seriously damaged. • Disease, coral bleaching, acidification, and ocean warming have taken their toll, and well over 50% of world’s live coral has been lost since 1950s. • The Great Pacific Garbage Patch is now 3xs the size of France and still growing. • Only 1% of ocean trash is on the surface, 6% is subsurface, and approximately 93% waste is on the ocean bottom. • Plastic trash is found in 90% of seabirds and 70% of creatures in deep sea ocean trenches. • The world’s fish stocks are 85% overexploited with bluefin tuna, Atlantic cod, American eels, and some sharks reduced by 95% since the 1950s.
  5. Ocean Data Factory To enable Sweden to be a global leader in sustainability and innovation in the digital blue economy
  6. Data Factory by AI Innovation of Sweden Donated partner data Open source Dedicated data projects Data Factory Managed data, processing power, and related services Training Access control Business models Legal framework Community & Network • Partners • Research • Students • Etc. Infrastructure, data, methods, resources, and tools made available to the broad community
  7. University Public sector Industry ODF: Global quadruple helix for data-driven innovation
  8. A national experimental workshop with deep competence from theory to practice within data science and AI • Chalmers and CHAIR - Chalmers AI Research Center – Swedens largest AI related university investment • Göteborgs Universitet – Sweden’s leading university within marine sciences • Swedish National Data Service – National research infrastructure hosted by University of Gothenburg • RISE – Multiple applied research areas within NN/ML/AI • AI Innovation of Sweden – National initiative for research and innovation within AI • Kristinebergs marina forsknings- och innovationscentrum – Promoting ocean innovation from idea to value creation • SMHI and National Oceanographic Data Centre - Environmental monitoring and measurement in Sweden’s seas and data dissemination from Sweden to international databases, eg European Copernicus • MMT Sweden AB – Sweden's largest and most advanced company in hydroacoustics and hydrographic bottom mapping • Inocean AB - Global naval architect, maritime technology, renewable energy consulting company in Sweden, Norway and Poland and more than 20 years of research and practical experience in eg. data simulations • Alkit Communications AB – Software company for collecting, analyzing, and communicating data • Combine Control Systems AB - ICT consulting company, focused on AI/ML • Maranics AB - Startup within maritime digitalization • Medins havs och vattenkonsulter AB - Sweden's largest environmental consulting company in aquatic environments • SeAnalytics AB och eDNAsolutions - Marine environmental assessments, especially with environmental DNA (eDNA) technology Theory Practice
  9. ODF International Advisory Board provides access to data, tools, and a global collaboration network France • Dr. Fabrice Collard, President OceanDataLab • Dr. Serdar Temiz, University of Rennes and EIT Digital Hub Norway Professor Alex Alcocer Dept of Mechanical, Electronics and Chemical Engineering & AI Lab Oslo Metropolitan University (OsloMet) Sweden • Åsa Burman, Director, Lighthouse – Swedish Marine Competence Center • Vanja Carlén, Project Leader, AI Innovation of Sweden • Jessica Hjerpe Olausson, Maritime Expert, Västra Götalandsregionen • Professor David Langlet, Ocean Governance Law, School of Economics, Gothenburg University Germany Professor Dirk Fleischer Kiel Marine Science Data and Information Manager Kiel University Portugal Professor Sergio Leandro Deputy Director, School of Tourism and Maritime Technology Politechnic Institute of Leiria and Head of smartOCEAN
  10. Output - New results based on historical data, new data or combinations of these - New knowledge about NN/ML/AI for project partners and community - Interaction with different external actors and individuals Input - Open external data - Project partners’ own data - Live generated data (Hackathon, online data from sensors, citizen science) Characteristics Meta data Structure Object recognition Annotation Training / Resilience /… Integrity Different Neural Nets Artificial Inteligence Machine Learning FAIR Open API Live data Monitoring Data filtering Searchability Ocean Data Factory Principles for Ocean Data Factory
  11. ODF Workplan Work Package WP Leader Other Partner Participation WP1. Management and external communication Professor Robin Teigland Chalmers University of Technology Technology Managment & Economics Primarily GU and RISE as well as WP leaders from Medins och Combine WP2. Continuous evaluation and innovation Dr Yixin Zhang GU, Institute for Applied IT RISE, International Advisory Board WP3. Data sources and ethical and legal aspects Dr Malin Mohlin Medins Havs och Vattenkonsulter Primarily Svensk Nationell Datatjänst, SMHI, GU, but most partners WP4. API and data streams Eddie Olsson RISE ICT Alkit Communications AB, Combine Control Systems AB, GU, SMHI, SND WP5. AI/ML/NN Sofia Hörberg Combine Control Systems AB Chalmers/CHAIR, RISE, Alkit Communications AB, Inocean AB WP6. Dissemination and scaling up Martin Sjöberg IVL Svenska Miljöinstitutet Primarily Chalmers, GU, RISE
  12. ODF’s continous innovation cycle improves learning and results
  13. ODF’s process wheel starts with a sustainable use case and has seven steps Define the Sustainable Use Case
  14. An ocean of use cases for data-driven, sustainable innovation Food & Medicine Energy SafetyTourism & sport Ports & smart cities AUVs & monitoring Drilling & mining Environment Transport & naval architecture Materials & product design
  15. First turn in the process wheel: Environmental monitoring & numerical forecasting Two subthemes: 1. Biodiversity, invasive species, DNA 2. Assimilating measurements into forecasts July 2019 • SeAnalytics, Medins, SMHI, GU present opportunities/challenges and data sources. How can we create innovation within monitoring and forecasting! • ODF director and SMHI discuss with Swedish Space Board about cooperation. • Lead group, WP leaders draft goals and working plan. • Goals and working plan are discussed with the whole consortium. • First invitation, ”save the date”, for open workshop, hackathons, etc. • ODF web page. • GU-AIT present plan for evaluation.
  16. First turn in the process wheel: Environmental monitoring & numerical forecasting There exists an abundance of marine data sources, aggregated, and aiming to be accessible, including APIs. The consortium also has huge amounts of data. August 2019 • SMHI (monitoring) and SND (research) present open international/national projects/portals. • Medins leads inventory and decides what data sources to use from consortium, specifically looking at AUV Ran, other drones, SP SeaCat, citizen science. • SeAnalytics leads workshop about open data sources and APIs (Python, R) for biodiversity. • SMHI and GU-Marine lead workshop on how measurements drive forecasts.
  17. First turn in the process wheel: Environmental monitoring & numerical forecasting Connectors (API) exist but may still need to be adapted or created for our needs and data sources. September (I) 2019 • Consortium participates in EMODnet Open Sea Lab II hackathon in Genth, Belgium - Inspiration, cooperation, EU perspective - GU-AIT tests evaluation method • RISE leads defining of API needs for theme.
  18. First turn in the process wheel: Environmental monitoring & numerical forecasting September (II) 2019 • Medins presents test data from external sources and the consortium. • RISE leads development/testing of APIs using test data. • GU-AIT leads mini-workshop with the reference group: • Presents theme and data sources, requests feedback and suggestions.
  19. First turn in the process wheel: Environmental monitoring & numerical forecasting October 2019 • SND leads workshop on FAIR. • Cocreated APIs together with data sources are published and made available for external users. • IVL presents detailed programme and scope for hackathon.
  20. First turn in the process wheel: Environmental monitoring & numerical forecasting November 2019 • AP5 (Combine) leads the work (whole consortium participates) with finding solutions for following: - Controlling autonomous platforms/drones to measure what the forecasting model actually needs the most - Providing rapid decision support for managing invasive species in the marine environment.
  21. First turn in the process wheel: Environmental monitoring & numerical forecasting December 2019 • IVL leads open hackathon! • GU-AIT presents evaluation and preliminary conclusions and suggestions.
  22. A sea of open databases and portals EU/SE Copernicus Earth observations from satellite and collection, transmission and use of environmental information EU EMODnet - European Marine Observation and Data Network European marine data across 7 areas: bathymetry, geology, seabed habits, chemistry, biology, physics, human activities EU EurOcean – The European Centre for information on Marine Science and Technology Independent scientific non-governmental organization EU ESDL – Earth System Data Lab Portal providing accces and tools for analysis of wide range of earth observation datasets EU FerryBox Online Data and COSYNA data portal Scientific data collected by ferry ships in EU and portal with data from HZG ferryboxes, bouys, glider and piles combined with ENVISAT/MERIS satellite data DE Geomar Data Management Portal ”Open” and ”Reserved” access research datasets from Geomar Heimholtz-Center for Ocean Research Kiel SE Havs och Vatten Myndighet Responsible for collecting environmental data from lakes, watercourses, groundwater, coasts. and ocean SE SMHI och National Oceanographic Data Centre Historical measurements in air, lakes, watercourses and sea SE SND - Svensk Nationell Datatjänst Accessibility, conservation and reuse of research data and related material PT IPMA - Portuguese Institute for the Ocean and Atmosphere Databases of information on marine science and technology in Europe: Marine Knowledge Management, Marine Research Infrastructures and Ocean Public Outreach and Awareness. UK MEDIN - Marine Environmental Data and Info Network Information on 14,930 marine datasets from over 400 UK organizations USA NOAA - National Oceanic and Atmospheric Administration Climate, ocean, and fisheries data, satellite imagery World GEBCO - General Bathymetry Chart of the ocean International experts creating and making available data sets and maps showing the shape of the seafloor World Global Ocean Currents Database Integrates global ocean currents observations from a variety of instruments with different resolution, accuracy and response to spatial and temporal variability into a uniform network common data form (NetCDF) format World World Ocean Database Scientifically quality-controlled global ocean profile and plankton data with measured in situ variables since 1773
  23. Data from partners and produced within ODF Example Facilitate use and sharing of expensive subsea equipment and technology as well as personnel in addition to providing access to differnt marine environments
  24. Increasing interest in Citizen Science and crowdsourcing Actors Projects What do they do? Citizen Science CrowdWater Collect hydrological data by using the framework of geocaching to predict floods and low flow Stream Tracker Documenting flow patterns in intermittent streams, maintaing network of streamflow sensors to track how streams change over time and develop methods for detecting streamflow patterns using aircraft and satellite images CrowdHydrology Sends text message to server that stores and displays data on webpage about water level at designated location with gauge Indigoexpedition Citizen science project to Ocean Microbiome Environmental Global Assessment (OMEGA INDEX) Exxpedition Each voyage explores prevalence and impact of plastics and toxics in ocean by measuring, sampling and collecting data from places often hard for scientists to reach (users of Debris Tracker) Eoceans Aims to create versatile marine database for use in science and policy. (Eshark in Thailand) Panexplore Research expeditions and sailing voyages (users of Debris Tracker) Secchi Disk study Marine phytoplankton with data collected by seafarers from all around world Zooniverse Seafloorexplorer Identify species and ground cover in images of seafloor Floating forest Openlittermap.com Enables citizen scientists to collect litter data UCSB Marine Science Inst. Benioff Ocean Initiative Crowdsourcing marine research ideas Oceanography for everyone OpenCTD Built using readily available parts and is powered by an Arduino-based microcontroller Niskin 3D 3D printed Niskin bottle, one of most important oceanography tools BeagleBox Tough, single-board-computer-powered field laptop designed to fit into Pelican case Sofarocean Trident Enables citizen scientists to explore underwater Spotter Enables citizen scientists to collect ocean weather data Salelkar, Linders, & Teigland, work in progress
  25. Smart Ocean Network for data-driven, sustainable innovation smartOCEAN Peniche, Portugal Smart Ocean VGR, Sweden Goal: To create a global network of hubs for sustainable ocean innovation
  26. Citizen Scientists for Ocean Health Smartfin is developing surfboard fins with sensors that will measure multiple ocean parameters. https://smartfin.org/
  27. Design API to establish connectivity and create good conditions for ordered reading Data sources -Databases - Connected systems - Sensors /IOT -… Ocean Data Factory ”Enabler” Metadata Annotation Structure FAIR NN ML AI Design API for machine to machine connectivity Open data set WP 3 Itemization Define Goals WP 3,4 Availability WP 4,3 Access WP 4,3,5 API in data WP 5,3,4 Test data WP 4,3,5 API data out WP 6,1,2,3,4,5 NN / ML /AI ”Hackathon”, Open data for innovation WP 2 Feedback through hackathons, workshops, interviews with participants/users Continuous evaluation of potential for improvement from data source to end user Workflow, continuous follow-up/feedback and data flow
  28. Learning from others in the ocean space
  29. A focus on open source & free tools and methods Example from Microsoft
  30. Visualization tools from OceanDataLab – France
  31. Numerous open source software programs
  32. Open Source for Ocean Data Accessing and utilizing ocean data from the 18th century to now with open source data, software and scripts Readily available ocean data from NOAA • Bathymetry/Topography • Waves/Wind/Current • Temperature/Salinity/Oxygen • + Much more Statistical analysis and visualization using Python • Produce neccessary data and visualizations for a project with the click of a button • Easily change and optimize methods and scripts • Predict longterm weather and operational conditions INOCEAN, Ocean Data Temperature over depth by Clark Richards
  33. Chalmers offers a complete innovation ecosystem Hackathons, students, coaching, capital, network, etc. Chalmers Ventures ranks #1 in Nordics, #2 in Europe and #12 in world.
  34. ”Ocean Data-driven Innovation” MOOC with Chalmers ”Ocean Data-driven Innovation” Objectives • To raise ocean literacy and create awareness of ocean innovation opportunities • To facilitate data-driven innovation across ocean use cases • To encourage global collaboration and cocreation for a sustainable future • To promote Sweden as a Sustainable Ocean Innovation hub Potential collaboration with Kiel University and Geomar MOOC resources and experience at Chalmers
  35. Ocean Data Factory To enable Sweden to be a global leader in sustainability and innovation in the digital blue economy
  36. We don’t even know what we don’t know about our future global challenges!
  37. Thank you from ODF! ODF Research Coordinator Robert Rylander Researcher RISE, Maritime Research Nautical Officer Shipping Digitalization Expert ODF Director Robin Teigland Professor, Mgt of Digitalization Chalmers University of Technology Co-founder Peniche Ocean Watch Blue Circular Economy Innovation Initiative ODF Coordinator Torsten Linders Oceanographer and Researcher Gothenburg University Coordinator SCOOT – Swedish Center for Ocean Observing Technology ODF AI Coordinator Peter Karlsson CEO Combine Board Member Combine Control Systems AB

Notas do Editor

  1. - datalabbet bidrar till datadrivna innovationer - fungerar som en nationell experimentell verkstad inom sitt område erbjuder gemensamma verktyg och metoder samt tillgängliggör data Application for funding for an Ocean Data Factory from Vinnova Sweden.
  2. - datalabbet bidrar till datadrivna innovationer - fungerar som en nationell experimentell verkstad inom sitt område - erbjuder gemensamma verktyg och metoder samt tillgängliggör data
  3. https://www.weforum.org/projects/a-new-vision-for-the-ocean One of the world’s biggest challenges to fulfilling the UN 2030 sustainable development goals is the ability to reverse the rapid decline of our oceans as ocean health is critical for global economic and food security. One solution to this challenge, which is increasingly being promoted by governments, NGOs, and industry worldwide, is the application of artificial intelligence (AI) and machine learning (ML) to ocean data. One of the first areas is the use of AI to create more efficient shipping solutions, but other interesting areas are developing. For example, a particular ML algorithm, called a convolutional neural network, can be applied to data on ocean currents to create more realistic ocean models, even if the data for a particular area are limited. ML can be applied to satellite images to detect illegal and harmful fishing and even predict the flight that an illegal fishing boat might take. In aquaculture, machine learning can be used to predict animal critical states, such as spawning or moulting, such that the food supply can be adjusted accordingly. Finally, ML enables the prediction of wave conditions in order to optimize wave energy production.   The examples above are only the “tip of the iceberg” as the range of applications of AI/ML to ocean data in areas such as pollution and climate change, regulation, sea life and aquaculture, energy, and ocean and port transportation activity is vast. The field of ocean tech, sometimes called bluetech https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2018MS001472   https://www.researchgate.net/profile/Rafael_Falcon/publication/321362001_A_Reinforcement_Learning_Approach_to_Tackle_Illegal_Unreported_and_Unregulated_Fishing/links/5a1ec3a8a6fdccc6b7f8b3ef/A-Reinforcement-Learning-Approach-to-Tackle-Illegal-Unreported-and-Unregulated-Fishing.pdf https://www.researchgate.net/publication/320055556_A_Machine_Learning_Framework_to_Forecast_Wave_Conditions  
  4. https://oceanleadership.org/state-of-our-oceans/ https://www.aims.gov.au/documents/30301/2107350/Acidification.pdf/4224fe9f-efd2-4f91-a7b2-604137a87f2d https://blog.marinedebris.noaa.gov/debunking-myths-about-garbage-patches https://iopscience.iop.org/article/10.1088/1748-9326/10/12/124006/meta https://royalsocietypublishing.org/doi/full/10.1098/rsos.180667
  5. Ocean Data Factory är ett starkt samarbete mellan universitet, institut, myndighet, och företag, och koordinatörerna har mandat inom branschen med både tillgång till havsdata inom Sverige och globalt men också till applicering av AI/ML/NN till data för datadriven innovation. Alla aktörer bidrar med sina komplementstyrkor som tillsamman med en stark international referensgrupp ger Ocean Data Factory de bästa förutsättningar för en lyckad satsning. Göteborgs Universitet är Sveriges ledande marina universitet. Viktiga komponenter är Institutionen för Marina Vetenskaper, Sven Lovéns Centrum för Marin Infrastruktur, Centrum för Hav och Samhälle. GU är koordinator för SCOOT – Swedish Centre for Ocean Observing Technology, som tillgängliggör Sveriges mest avancerade undervattensrobotar för alla typer av mätningar. IT-fakultetens verksamhet spänner över abstrakt matematik och högteknologiska tillämpningar, till samhällsvetenskapliga undersökningar av IT-användningens konsekvenser. Göteborgs Universitet är värd för Svensk Nationell Datatjänst SND. Chalmers är ett av de ledande tekniska universiteten i världen, med forskare inom många områden, som både skapar och använder sig av data från havet, till exempel inom sjöfart, fartygskonstruktion, förnyelsebar energi, maritim informatik, marin miljöteknologi och marinbiologi. Chalmers har nyligen etablerat CHAIR – Chalmers AI Research Center, vilket är den största investeringen inom AI som gjorts bland svenska universitet. Chalmers erbjuder innovationsmöjligheter av signifikativt värde för ODF via Chalmers Ventures och Chalmers Innovation Office. Chalmers Ventures rankar högst inom universitets ventures-rangeringen i norden, #2 i Europa och ett imponerande #12 i världen. Chalmers är ett top-tio ingenjörs-universitet i världen inom interdisciplinär utbildning, och ODF kommer bygga på Chalmers expertis och resurser för att utveckla dess egna Ocean Innovation MOOC. RISE har under flera år och genom flera olika projekt hjälpt till att skapa allt från standarder för kommunikation till att skapa kopplingar datakällor för kollaborativ innovation. Utöver detta har man flera applicerade forskningsområden med NN/ML/AI inom andra domäner, från sjukvård till autonoma säkerhetskritiska system inom farkostteknik. Swedish National Data Service (SND) är en nationell forskningsinfrastruktur som drivs av ett konsortium. Göteborgs universitet är värduniversitet och leder konsortiet. SND:s huvuduppgift är att stödja tillgänglighet, bevarande och återanvändning av forskningsdata och relaterat material.  Sveriges Meterologiska och Hydrologiska Institut (SMHI) är den nationella myndighet som utför merparten av den marina miljöövervakningen och kontinuerliga mätningar i Sveriges hav. SMHI har ansvar som National Oceanographic Data Centre och ansvarar för dataspridning från Sverige till internationella databaser, som det europeiska Copernicus. Lysekils kommun är tillsammans med Chalmers, KTH, Göteborgs universitet, IVL Svenska miljöinstitutet, RISE och Innovatum initiativtagare till Kristinebergs marina forsknings- och innovationscentrum. Aktiviteterna på Kristineberg omfattar hela värdekedjan, från idégenerering till nyttiggörande på marknad eller i samhället. Kristineberg är nod för havsbaserade Testsite Skagerrak och innovationsplattformen Smart Ocean. Alkit Communications AB är ett mjukvaruföretag, som fokuserar på insamling, kommunikation och analys av data. Combine Control Systems AB är ett konsultbolag inom IKT, inriktat på bland annat AI/ML. Inocean AB är ett konsultföretag inom naval architecture (sv: skeppsbyggnad) och maritim teknologi och energi. Inocean har kontor i Sverige, Norge och Polen. Maranics AB är ett startup-företag inom maritim digitalisering. Medins havs och vattenkonsulter AB är Sveriges största miljökonsultföretag i akvatiska miljöer. Medins har samtliga Sveriges länsstyrelser som kunder. MMT Sweden AB är Sveriges största och mest avancerade företag inom hydroakustik och hydrografisk bottenkartering. SeAnalytics AB och eDNAsolutions är konsultföretag specialiserade på bedömningar av marin miljö, speciellt med miljö-DNA (eDNA) teknologi. Extern referensgrupp består av internationella experter inom användning av marin data och marina tillämpningar av AI; Åsa Burman, verksamhetschef, Lighthouse – Swedish Marine Competence Center, Sverige. Vanja Carlén, projektledare, AI Innovation of Sweden, Sverige. Dr. Fabrice Collard, President OceanDataLab, Frankrike. Professor Alex Alcocer, Department of Mechanical, Electronics and Chemical Engineering & AI Lab, Oslo Metropolitan University (OsloMet), Norway. Professor Dirk Fleischer, Kiel Marine Science Data and Information Manager, Kiel University, Tyskland. Jessica Hjerpe Olausson, maritim expert, Västra Götalandsregionen, Sverige. Professor David Langlet, Havsförvaltningsrätt, Handelshögskolan, Göteborgs Universite, Sverige. Dr. Serdar Temiz, University of Rennes och EIT Digital Hub, Frankrike.
  6. The International Advisory Board condinues to grow as more peope would like to join.
  7. Första gången projektet går igenom huvudprocessen, kommer alla aktörer att var med i alla delmoment. Syftet med att ha en kontinuerlig återkoppling är att nästa varv skall vara effektivare på olika sått (se figur 3). Det kan vara större databaser/flera datakällor, mindre projektresurser som tas i bruk eller kanske kan processen drivas igenom snabbare, fler olika typer av neurala nät eller mer avancerade system av AI kan testas på samma data set och utvärderas. På detta sättet kan projektet leverera öppna data set till externa aktörer som i sin tur kan interagera med projektdeltagarna kring vidareutveckling av sin AL/ML/NN plattform och kompetens. Projektdeltagarna kan fördjupa sin kunskap inom AI/ML/NN. Genom att lära från de andra aktörerna i projektet, hur de kan jobba vidare med sin egen AI/ML/NN utveckling, själva eller tillsammans med projektdeltagarna. Kanske startas nya projekt, ta resultaten till kommersiella produkter eller till fördjupad forskning som lever vidare efter dessa första två år.
  8. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  9. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  10. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  11. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  12. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  13. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  14. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  15. https://blog.dominodatalab.com/data-science-use-cases/ (1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts. (2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas. (3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata. (4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar. (5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs. (6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder. (7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
  16. EMODnet Benefits Access to marine data is of vital importance for marine industries, decision-making bodies and scientific research. An effective pan-European marine data infrastructure will: Enable effective and efficient marine spatial planning and legislation for environment, fisheries, transport, border control, customs and defence; Reduce uncertainty in our knowledge and ability to forecast the behaviour of the sea; Improve offshore operators’ efficiency and costs in gathering and processing marine data for operational and planning Purposes; Stimulate competition and innovation in established and emerging maritime sectors; Find out more about the benefits that EMODnet offers to the public sector, private sector, scientific research community and society. These are further demonstrated in the EMODnet Use Cases.
  17. Parternas egna data. De flesta av parterna har egna data från havet, i samtliga fall med nödvändiga metadata och hög grad av struktur. Data producerad inom datafabriken. Det gäller data som är resultat av analys och aggregering av externa eller egna data, alltså de två ovanstående kategorierna. Det gäller även i mycket begränsad omfattning när datafabriken (tillsammans med andra projekt) testar och demonstrerar dataflöden direkt från sensorer och plattformar i havet. SCOOT enters AutoMonIn in order to support innovation and automation of marine environmental monitoring, in this case specifically biodiversity
  18. https://medium.com/work-bench/todays-ai-software-infrastructure-landscape-and-trends-shaping-the-market-460d0c1c26d2 erbjuder gemensamma verktyg och metoder samt tillgängliggör data
  19. www.oceanmooc.org Scale, distirubution of kn Vinnova – vision, måål
  20. https://www.nationalgeographic.com/environment/2019/04/dead-pregnant-whale-plastic-italy/
  21. - datalabbet bidrar till datadrivna innovationer - fungerar som en nationell experimentell verkstad inom sitt område - erbjuder gemensamma verktyg och metoder samt tillgängliggör data
Anúncio