An Ocean of Opportunity
Ocean Data Factory
Dr. Torsten Linders, Gothenburg University (ODF Coordinator)
Professor Robin Teigland, Chalmers University of Technology (ODF Director)
Robert Rylander, RISE (Research Coordinator)
Peter Karlsson, Combine (AI Coordinator)
Today’s presenters
ODF Research Coordinator
Robert Rylander
Researcher
RISE, Maritime Research
Nautical Officer
Shipping Digitalization Expert
ODF Director
Robin Teigland
Professor, Mgt of Digitalization
Chalmers University of Technology
Co-founder
Peniche Ocean Watch Blue Circular
Economy Innovation Initiative
ODF Coordinator
Torsten Linders
Oceanographer and Researcher
Gothenburg University
Coordinator
SCOOT – Swedish Center for Ocean
Observing Technology
ODF AI Coordinator
Peter Karlsson
CEO Combine
Board Member
Combine Control Systems AB
Why does Sweden need ”Ocean Data Factory”?
• Increasing global interest in ocean and its potential
• Global ocean economy predicted to reach USD 3 trillion by 2030
• Ocean health is critical for global economic and food security and to reach UN 2030 goals yet we know
so little
• >80% of our ocean is unmapped, unobserved, and unexplored, and 90% of ocean species yet to be classified
• Ocean labs created around globe facilitate collection and use of ocean data
• National and private ocean data labs in majority of coastal countries, e.g., Australia, Canada, UK, Japan
• Regional initiatives, e.g., Africa, Caribbean, South America
• BigDataOcean, an EU Horizon 2020 consortium, includes 10 EU countries but no Nordic countries
• Sweden has no ocean data lab
• General lack of awareness in Sweden around innovation opportunities that ocean and application of
AI/ML/NN to ocean data offer
• Sweden risks losing out on enormous ocean potential as well as ability to influence development of
ocean in sustainable way
The ocean is
in a critical state
• Climate change, fishing, pollution, and other human factors
have damaged 96% of world’s oceans, with 41% seriously
damaged.
• Disease, coral bleaching, acidification, and ocean warming
have taken their toll, and well over 50% of world’s live coral
has been lost since 1950s.
• The Great Pacific Garbage Patch is now 3xs the size of France
and still growing.
• Only 1% of ocean trash is on the surface, 6% is subsurface,
and approximately 93% waste is on the ocean bottom.
• Plastic trash is found in 90% of seabirds and 70% of creatures
in deep sea ocean trenches.
• The world’s fish stocks are 85% overexploited with bluefin
tuna, Atlantic cod, American eels, and some sharks reduced
by 95% since the 1950s.
Ocean Data Factory
To enable Sweden to be a global leader in
sustainability and innovation in the digital blue economy
Data Factory by AI Innovation of Sweden
Donated
partner
data
Open
source
Dedicated
data
projects
Data Factory
Managed data,
processing power,
and related services
Training
Access control
Business models
Legal framework
Community & Network
• Partners
• Research
• Students
• Etc.
Infrastructure, data, methods, resources, and
tools made available to the broad community
A national experimental workshop with deep competence
from theory to practice within data science and AI
• Chalmers and CHAIR - Chalmers AI Research Center – Swedens largest AI related university investment
• Göteborgs Universitet – Sweden’s leading university within marine sciences
• Swedish National Data Service – National research infrastructure hosted by University of Gothenburg
• RISE – Multiple applied research areas within NN/ML/AI
• AI Innovation of Sweden – National initiative for research and innovation within AI
• Kristinebergs marina forsknings- och innovationscentrum – Promoting ocean innovation from idea to value creation
• SMHI and National Oceanographic Data Centre - Environmental monitoring and measurement in Sweden’s seas and data
dissemination from Sweden to international databases, eg European Copernicus
• MMT Sweden AB – Sweden's largest and most advanced company in hydroacoustics and hydrographic bottom mapping
• Inocean AB - Global naval architect, maritime technology, renewable energy consulting company in Sweden, Norway and
Poland and more than 20 years of research and practical experience in eg. data simulations
• Alkit Communications AB – Software company for collecting, analyzing, and communicating data
• Combine Control Systems AB - ICT consulting company, focused on AI/ML
• Maranics AB - Startup within maritime digitalization
• Medins havs och vattenkonsulter AB - Sweden's largest environmental consulting company in aquatic environments
• SeAnalytics AB och eDNAsolutions - Marine environmental assessments, especially with environmental DNA (eDNA)
technology
Theory
Practice
ODF International Advisory Board provides access
to data, tools, and a global collaboration network
France
• Dr. Fabrice Collard, President OceanDataLab
• Dr. Serdar Temiz, University of Rennes and EIT Digital Hub
Norway
Professor Alex Alcocer
Dept of Mechanical, Electronics and
Chemical Engineering & AI Lab
Oslo Metropolitan University (OsloMet)
Sweden
• Åsa Burman, Director, Lighthouse – Swedish Marine Competence Center
• Vanja Carlén, Project Leader, AI Innovation of Sweden
• Jessica Hjerpe Olausson, Maritime Expert, Västra Götalandsregionen
• Professor David Langlet, Ocean Governance Law, School of Economics, Gothenburg University
Germany
Professor Dirk Fleischer
Kiel Marine Science Data and
Information Manager
Kiel University
Portugal
Professor Sergio Leandro
Deputy Director, School of Tourism
and Maritime Technology
Politechnic Institute of Leiria and
Head of smartOCEAN
Output
- New results based on
historical data, new data or
combinations of these
- New knowledge about
NN/ML/AI for project
partners and community
- Interaction with different
external actors and
individuals
Input
- Open external data
- Project partners’ own data
- Live generated data
(Hackathon, online data from
sensors, citizen science)
Characteristics
Meta data
Structure
Object recognition
Annotation
Training / Resilience /…
Integrity
Different Neural Nets
Artificial Inteligence
Machine Learning
FAIR
Open API
Live data
Monitoring
Data filtering
Searchability
Ocean
Data
Factory
Principles for Ocean Data Factory
ODF Workplan
Work Package WP Leader Other Partner Participation
WP1. Management and external
communication
Professor Robin Teigland
Chalmers University of Technology
Technology Managment & Economics
Primarily GU and RISE as well as WP
leaders from Medins och Combine
WP2. Continuous evaluation and
innovation
Dr Yixin Zhang
GU, Institute for Applied IT
RISE, International Advisory Board
WP3. Data sources and ethical and
legal aspects
Dr Malin Mohlin
Medins Havs och Vattenkonsulter
Primarily Svensk Nationell Datatjänst,
SMHI, GU, but most partners
WP4. API and data streams Eddie Olsson
RISE ICT
Alkit Communications AB, Combine
Control Systems AB, GU, SMHI, SND
WP5. AI/ML/NN Sofia Hörberg
Combine Control Systems AB
Chalmers/CHAIR, RISE, Alkit
Communications AB, Inocean AB
WP6. Dissemination and scaling up Martin Sjöberg
IVL Svenska Miljöinstitutet
Primarily Chalmers, GU, RISE
ODF’s process wheel starts with a
sustainable use case and has seven steps
Define the
Sustainable
Use Case
An ocean of use cases for data-driven, sustainable innovation
Food &
Medicine
Energy
SafetyTourism & sport
Ports &
smart cities
AUVs &
monitoring
Drilling &
mining
Environment
Transport & naval
architecture
Materials &
product design
First turn in the process wheel:
Environmental monitoring & numerical forecasting
Two subthemes:
1. Biodiversity, invasive species, DNA
2. Assimilating measurements into forecasts
July 2019
• SeAnalytics, Medins, SMHI, GU present
opportunities/challenges and data sources.
How can we create innovation within
monitoring and forecasting!
• ODF director and SMHI discuss with
Swedish Space Board about cooperation.
• Lead group, WP leaders draft goals and
working plan.
• Goals and working plan are discussed with
the whole consortium.
• First invitation, ”save the date”, for open
workshop, hackathons, etc.
• ODF web page.
• GU-AIT present plan for evaluation.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
There exists an abundance of marine data
sources, aggregated, and aiming to be
accessible, including APIs. The consortium also
has huge amounts of data.
August 2019
• SMHI (monitoring) and SND (research)
present open international/national
projects/portals.
• Medins leads inventory and decides what
data sources to use from consortium,
specifically looking at AUV Ran, other
drones, SP SeaCat, citizen science.
• SeAnalytics leads workshop about open
data sources and APIs (Python, R) for
biodiversity.
• SMHI and GU-Marine lead workshop on
how measurements drive forecasts.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
Connectors (API) exist but may still need to be
adapted or created for our needs and data
sources.
September (I) 2019
• Consortium participates in EMODnet Open
Sea Lab II hackathon in Genth, Belgium
- Inspiration, cooperation, EU
perspective
- GU-AIT tests evaluation method
• RISE leads defining of API needs for theme.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
September (II) 2019
• Medins presents test data from external
sources and the consortium.
• RISE leads development/testing of APIs
using test data.
• GU-AIT leads mini-workshop with the
reference group:
• Presents theme and data sources,
requests feedback and suggestions.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
October 2019
• SND leads workshop on FAIR.
• Cocreated APIs together with data sources
are published and made available for
external users.
• IVL presents detailed programme and scope
for hackathon.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
November 2019
• AP5 (Combine) leads the work (whole
consortium participates) with finding
solutions for following:
- Controlling autonomous
platforms/drones to measure what
the forecasting model actually needs
the most
- Providing rapid decision support for
managing invasive species in the
marine environment.
First turn in the process wheel:
Environmental monitoring & numerical forecasting
December 2019
• IVL leads open hackathon!
• GU-AIT presents evaluation and preliminary
conclusions and suggestions.
A sea of open databases and portals
EU/SE Copernicus Earth observations from satellite and collection, transmission and use of environmental information
EU EMODnet - European Marine Observation and Data Network European marine data across 7 areas: bathymetry, geology, seabed habits, chemistry, biology, physics, human
activities
EU EurOcean – The European Centre for information on Marine
Science and Technology
Independent scientific non-governmental organization
EU ESDL – Earth System Data Lab Portal providing accces and tools for analysis of wide range of earth observation datasets
EU FerryBox Online Data and COSYNA data portal Scientific data collected by ferry ships in EU and portal with data from HZG ferryboxes, bouys, glider and piles
combined with ENVISAT/MERIS satellite data
DE Geomar Data Management Portal ”Open” and ”Reserved” access research datasets from Geomar Heimholtz-Center for Ocean Research Kiel
SE Havs och Vatten Myndighet Responsible for collecting environmental data from lakes, watercourses, groundwater, coasts. and ocean
SE SMHI och National Oceanographic Data Centre Historical measurements in air, lakes, watercourses and sea
SE SND - Svensk Nationell Datatjänst Accessibility, conservation and reuse of research data and related material
PT IPMA - Portuguese Institute for the Ocean and Atmosphere Databases of information on marine science and technology in Europe: Marine Knowledge Management, Marine
Research Infrastructures and Ocean Public Outreach and Awareness.
UK MEDIN - Marine Environmental Data and Info Network Information on 14,930 marine datasets from over 400 UK organizations
USA NOAA - National Oceanic and Atmospheric Administration Climate, ocean, and fisheries data, satellite imagery
World GEBCO - General Bathymetry Chart of the ocean International experts creating and making available data sets and maps showing the shape of the seafloor
World Global Ocean Currents Database Integrates global ocean currents observations from a variety of instruments with different resolution, accuracy and
response to spatial and temporal variability into a uniform network common data form (NetCDF) format
World World Ocean Database Scientifically quality-controlled global ocean profile and plankton data with measured in situ variables since 1773
Data from partners and produced within ODF
Example
Facilitate use and sharing of
expensive subsea equipment and
technology as well as personnel in
addition to providing access to
differnt marine environments
Increasing interest in Citizen Science and crowdsourcing
Actors Projects What do they do?
Citizen Science
CrowdWater Collect hydrological data by using the framework of geocaching to predict floods and low flow
Stream Tracker
Documenting flow patterns in intermittent streams, maintaing network of streamflow sensors to track
how streams change over time and develop methods for detecting streamflow patterns using aircraft
and satellite images
CrowdHydrology
Sends text message to server that stores and displays data on webpage about water level at designated
location with gauge
Indigoexpedition Citizen science project to Ocean Microbiome Environmental Global Assessment (OMEGA INDEX)
Exxpedition
Each voyage explores prevalence and impact of plastics and toxics in ocean by measuring, sampling and
collecting data from places often hard for scientists to reach (users of Debris Tracker)
Eoceans Aims to create versatile marine database for use in science and policy. (Eshark in Thailand)
Panexplore Research expeditions and sailing voyages (users of Debris Tracker)
Secchi Disk study Marine phytoplankton with data collected by seafarers from all around world
Zooniverse
Seafloorexplorer Identify species and ground cover in images of seafloor
Floating forest
Openlittermap.com Enables citizen scientists to collect litter data
UCSB Marine Science Inst. Benioff Ocean Initiative Crowdsourcing marine research ideas
Oceanography for everyone
OpenCTD Built using readily available parts and is powered by an Arduino-based microcontroller
Niskin 3D 3D printed Niskin bottle, one of most important oceanography tools
BeagleBox Tough, single-board-computer-powered field laptop designed to fit into Pelican case
Sofarocean
Trident Enables citizen scientists to explore underwater
Spotter Enables citizen scientists to collect ocean weather data
Salelkar, Linders, & Teigland, work in progress
Smart Ocean Network for data-driven, sustainable innovation
smartOCEAN
Peniche, Portugal
Smart Ocean
VGR, Sweden
Goal: To create a global network of hubs for sustainable ocean innovation
Citizen Scientists for Ocean Health
Smartfin is developing surfboard fins with sensors that will
measure multiple ocean parameters.
https://smartfin.org/
Design API to
establish
connectivity
and create
good
conditions for
ordered
reading
Data sources
-Databases
- Connected
systems
- Sensors /IOT
-…
Ocean Data Factory
”Enabler”
Metadata
Annotation
Structure
FAIR
NN
ML
AI
Design API for
machine to
machine
connectivity
Open
data
set
WP 3
Itemization
Define Goals
WP 3,4
Availability
WP 4,3
Access
WP 4,3,5
API in
data
WP 5,3,4
Test data
WP 4,3,5 API
data out
WP 6,1,2,3,4,5
NN / ML /AI
”Hackathon”, Open
data for innovation
WP 2 Feedback through hackathons, workshops,
interviews with participants/users
Continuous evaluation of potential for
improvement from data source to end user
Workflow, continuous follow-up/feedback and data flow
Open Source for Ocean Data
Accessing and utilizing ocean data from the 18th century to
now with open source data, software and scripts
Readily available ocean data from NOAA
• Bathymetry/Topography
• Waves/Wind/Current
• Temperature/Salinity/Oxygen
• + Much more
Statistical analysis and visualization using Python
• Produce neccessary data and visualizations for a
project with the click of a button
• Easily change and optimize methods and scripts
• Predict longterm weather and operational conditions
INOCEAN, Ocean Data
Temperature over depth by Clark Richards
Chalmers offers a complete innovation ecosystem
Hackathons, students, coaching, capital, network, etc.
Chalmers Ventures ranks #1 in Nordics, #2 in Europe and #12 in world.
”Ocean Data-driven Innovation” MOOC with Chalmers
”Ocean Data-driven Innovation” Objectives
• To raise ocean literacy and create awareness of ocean innovation opportunities
• To facilitate data-driven innovation across ocean use cases
• To encourage global collaboration and cocreation for a sustainable future
• To promote Sweden as a Sustainable Ocean Innovation hub
Potential collaboration with
Kiel University and Geomar
MOOC resources
and experience at Chalmers
Ocean Data Factory
To enable Sweden to be a global leader in
sustainability and innovation in the digital blue economy
We don’t even know what we don’t know
about our future global challenges!
Thank you from ODF!
ODF Research Coordinator
Robert Rylander
Researcher
RISE, Maritime Research
Nautical Officer
Shipping Digitalization Expert
ODF Director
Robin Teigland
Professor, Mgt of Digitalization
Chalmers University of Technology
Co-founder
Peniche Ocean Watch Blue Circular
Economy Innovation Initiative
ODF Coordinator
Torsten Linders
Oceanographer and Researcher
Gothenburg University
Coordinator
SCOOT – Swedish Center for Ocean
Observing Technology
ODF AI Coordinator
Peter Karlsson
CEO Combine
Board Member
Combine Control Systems AB
Notas do Editor
- datalabbet bidrar till datadrivna innovationer
- fungerar som en nationell experimentell verkstad inom sitt område
erbjuder gemensamma verktyg och metoder samt tillgängliggör data
Application for funding for an Ocean Data Factory from Vinnova Sweden.
- datalabbet bidrar till datadrivna innovationer
- fungerar som en nationell experimentell verkstad inom sitt område
- erbjuder gemensamma verktyg och metoder samt tillgängliggör data
https://www.weforum.org/projects/a-new-vision-for-the-ocean
One of the world’s biggest challenges to fulfilling the UN 2030 sustainable development goals is the ability to reverse the rapid decline of our oceans as ocean health is critical for global economic and food security. One solution to this challenge, which is increasingly being promoted by governments, NGOs, and industry worldwide, is the application of artificial intelligence (AI) and machine learning (ML) to ocean data. One of the first areas is the use of AI to create more efficient shipping solutions, but other interesting areas are developing. For example, a particular ML algorithm, called a convolutional neural network, can be applied to data on ocean currents to create more realistic ocean models, even if the data for a particular area are limited. ML can be applied to satellite images to detect illegal and harmful fishing and even predict the flight that an illegal fishing boat might take. In aquaculture, machine learning can be used to predict animal critical states, such as spawning or moulting, such that the food supply can be adjusted accordingly. Finally, ML enables the prediction of wave conditions in order to optimize wave energy production.
The examples above are only the “tip of the iceberg” as the range of applications of AI/ML to ocean data in areas such as pollution and climate change, regulation, sea life and aquaculture, energy, and ocean and port transportation activity is vast. The field of ocean tech, sometimes called bluetech
https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2018MS001472
https://www.researchgate.net/profile/Rafael_Falcon/publication/321362001_A_Reinforcement_Learning_Approach_to_Tackle_Illegal_Unreported_and_Unregulated_Fishing/links/5a1ec3a8a6fdccc6b7f8b3ef/A-Reinforcement-Learning-Approach-to-Tackle-Illegal-Unreported-and-Unregulated-Fishing.pdf
https://www.researchgate.net/publication/320055556_A_Machine_Learning_Framework_to_Forecast_Wave_Conditions
Ocean Data Factory är ett starkt samarbete mellan universitet, institut, myndighet, och företag, och koordinatörerna har mandat inom branschen med både tillgång till havsdata inom Sverige och globalt men också till applicering av AI/ML/NN till data för datadriven innovation. Alla aktörer bidrar med sina komplementstyrkor som tillsamman med en stark international referensgrupp ger Ocean Data Factory de bästa förutsättningar för en lyckad satsning.
Göteborgs Universitet är Sveriges ledande marina universitet. Viktiga komponenter är Institutionen för Marina Vetenskaper, Sven Lovéns Centrum för Marin Infrastruktur, Centrum för Hav och Samhälle. GU är koordinator för SCOOT – Swedish Centre for Ocean Observing Technology, som tillgängliggör Sveriges mest avancerade undervattensrobotar för alla typer av mätningar. IT-fakultetens verksamhet spänner över abstrakt matematik och högteknologiska tillämpningar, till samhällsvetenskapliga undersökningar av IT-användningens konsekvenser. Göteborgs Universitet är värd för Svensk Nationell Datatjänst SND.
Chalmers är ett av de ledande tekniska universiteten i världen, med forskare inom många områden, som både skapar och använder sig av data från havet, till exempel inom sjöfart, fartygskonstruktion, förnyelsebar energi, maritim informatik, marin miljöteknologi och marinbiologi. Chalmers har nyligen etablerat CHAIR – Chalmers AI Research Center, vilket är den största investeringen inom AI som gjorts bland svenska universitet. Chalmers erbjuder innovationsmöjligheter av signifikativt värde för ODF via Chalmers Ventures och Chalmers Innovation Office. Chalmers Ventures rankar högst inom universitets ventures-rangeringen i norden, #2 i Europa och ett imponerande #12 i världen. Chalmers är ett top-tio ingenjörs-universitet i världen inom interdisciplinär utbildning, och ODF kommer bygga på Chalmers expertis och resurser för att utveckla dess egna Ocean Innovation MOOC.
RISE har under flera år och genom flera olika projekt hjälpt till att skapa allt från standarder för kommunikation till att skapa kopplingar datakällor för kollaborativ innovation. Utöver detta har man flera applicerade forskningsområden med NN/ML/AI inom andra domäner, från sjukvård till autonoma säkerhetskritiska system inom farkostteknik.
Swedish National Data Service (SND) är en nationell forskningsinfrastruktur som drivs av ett konsortium. Göteborgs universitet är värduniversitet och leder konsortiet. SND:s huvuduppgift är att stödja tillgänglighet, bevarande och återanvändning av forskningsdata och relaterat material.
Sveriges Meterologiska och Hydrologiska Institut (SMHI) är den nationella myndighet som utför merparten av den marina miljöövervakningen och kontinuerliga mätningar i Sveriges hav. SMHI har ansvar som National Oceanographic Data Centre och ansvarar för dataspridning från Sverige till internationella databaser, som det europeiska Copernicus.
Lysekils kommun är tillsammans med Chalmers, KTH, Göteborgs universitet, IVL Svenska miljöinstitutet, RISE och Innovatum initiativtagare till Kristinebergs marina forsknings- och innovationscentrum. Aktiviteterna på Kristineberg omfattar hela värdekedjan, från idégenerering till nyttiggörande på marknad eller i samhället. Kristineberg är nod för havsbaserade Testsite Skagerrak och innovationsplattformen Smart Ocean.
Alkit Communications AB är ett mjukvaruföretag, som fokuserar på insamling, kommunikation och analys av data.
Combine Control Systems AB är ett konsultbolag inom IKT, inriktat på bland annat AI/ML.
Inocean AB är ett konsultföretag inom naval architecture (sv: skeppsbyggnad) och maritim teknologi och energi. Inocean har kontor i Sverige, Norge och Polen.
Maranics AB är ett startup-företag inom maritim digitalisering.
Medins havs och vattenkonsulter AB är Sveriges största miljökonsultföretag i akvatiska miljöer. Medins har samtliga Sveriges länsstyrelser som kunder.
MMT Sweden AB är Sveriges största och mest avancerade företag inom hydroakustik och hydrografisk bottenkartering.
SeAnalytics AB och eDNAsolutions är konsultföretag specialiserade på bedömningar av marin miljö, speciellt med miljö-DNA (eDNA) teknologi.
Extern referensgrupp består av internationella experter inom användning av marin data och marina tillämpningar av AI;
Åsa Burman, verksamhetschef, Lighthouse – Swedish Marine Competence Center, Sverige.
Vanja Carlén, projektledare, AI Innovation of Sweden, Sverige.
Dr. Fabrice Collard, President OceanDataLab, Frankrike.
Professor Alex Alcocer, Department of Mechanical, Electronics and Chemical Engineering & AI Lab, Oslo Metropolitan University (OsloMet), Norway.
Professor Dirk Fleischer, Kiel Marine Science Data and Information Manager, Kiel University, Tyskland.
Jessica Hjerpe Olausson, maritim expert, Västra Götalandsregionen, Sverige.
Professor David Langlet, Havsförvaltningsrätt, Handelshögskolan, Göteborgs Universite, Sverige.
Dr. Serdar Temiz, University of Rennes och EIT Digital Hub, Frankrike.
The International Advisory Board condinues to grow as more peope would like to join.
Första gången projektet går igenom huvudprocessen, kommer alla aktörer att var med i alla delmoment. Syftet med att ha en kontinuerlig återkoppling är att nästa varv skall vara effektivare på olika sått (se figur 3). Det kan vara större databaser/flera datakällor, mindre projektresurser som tas i bruk eller kanske kan processen drivas igenom snabbare, fler olika typer av neurala nät eller mer avancerade system av AI kan testas på samma data set och utvärderas.
På detta sättet kan projektet leverera öppna data set till externa aktörer som i sin tur kan interagera med projektdeltagarna kring vidareutveckling av sin AL/ML/NN plattform och kompetens. Projektdeltagarna kan fördjupa sin kunskap inom AI/ML/NN. Genom att lära från de andra aktörerna i projektet, hur de kan jobba vidare med sin egen AI/ML/NN utveckling, själva eller tillsammans med projektdeltagarna. Kanske startas nya projekt, ta resultaten till kommersiella produkter eller till fördjupad forskning som lever vidare efter dessa första två år.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
https://blog.dominodatalab.com/data-science-use-cases/
(1) Den planerade huvudprocessen startar med en Idé/ett tema vi vill undersöka. Därefter görs en inventering av de datakällor man önskar hämta data ifrån, historiskdata, data som flödar in i mer eller mindre i realtid eller kombination av dessa. Här är projektets olika aktörer expertis och erfarenhet från olika domäners nyckel till att definiera projektcykelns Målsättning. Vid utvärderingen kan vi då se om målsättningen uppnåtts.
(2) Sedan analyseras hur man kan nå dessa data set, automatiserad maskin till maskin-inläsning är önskvärd och tillpassning i hur data görs tillgänglig till ODF kan behövas.
(3) Detta görs i nästa fas där olika typer av konnektorer (API) kan komma att behöva skapas för att möjliggöra strukturerad insamling av data, såväl manuell inläsning som maskinell med tillhörande metadata.
(4) Därefter valideras APIerna genom provkörning mot ett testdata set så att man kan säkerställa konnektivitet och att data kommer in på det sätt man önskar.(5) Efter det kan ett API för tillgängliggöra åtkomst enligt FAIR modellen (Findability, Accessibility, Interoperability and Reusability) till de strukturerade data set som skapats och extern access möjliggörs.
(6) Sedan kan datalabbets resurser, strukturerade/annoterade/förädlade datakällor användas för olika applikationer, av såväl interna projektdeltagare som externa. Här kommer mycket av projektets interaktivitet vara och syftet med hela Datafabriken är att kunna laborera med de olika tekniker för AI/ML/NN, hur skall systemet tränas, risker och möjligheter som finns idag och de som kommer under projektets gång. Det kan innebära att redan gjorda delprojekt öppnas upp igen och testas mot ny teknik och nytt kunnande. Det kommer vara möjligt att med manuell utsökning av data från ODF genom sök-aggregeringsgränssnitt enligt etablerade mönster, dessa sök-mönster kan också ligga till grund för automatiserad bearbetning med ML för effektivisering. Maskinell utsökning är prioriterad för att ODF skall kunna erbjuda olika typer automatiserade databehandlingsmetoder.
(7) För att attrahera nya externa aktörer kommer olika typer av events att kontinuerligt anordnas. Som en viktig del i förbättringsprocessen kommer direkt återkoppling från de aktiviteter som använt/interagerat med datafabriken att fångas upp och en återkoppling till de olika stegen att utföras. Även referensgruppen kommer att få en interaktiv insyn i de olika projektstegen genom tillexempel mini-workshops kan komma att ordnas om olika teman som AI/ML/NN, säkerhet, etik-aspekter, data typer eller datakällor.
EMODnet Benefits
Access to marine data is of vital importance for marine industries, decision-making bodies and scientific research. An effective pan-European marine data infrastructure will:
Enable effective and efficient marine spatial planning and legislation for environment, fisheries, transport, border control, customs and defence;
Reduce uncertainty in our knowledge and ability to forecast the behaviour of the sea;
Improve offshore operators’ efficiency and costs in gathering and processing marine data for operational and planning Purposes;
Stimulate competition and innovation in established and emerging maritime sectors;
Find out more about the benefits that EMODnet offers to the public sector, private sector, scientific research community and society. These are further demonstrated in the EMODnet Use Cases.
Parternas egna data. De flesta av parterna har egna data från havet, i samtliga fall med nödvändiga metadata och hög grad av struktur.
Data producerad inom datafabriken. Det gäller data som är resultat av analys och aggregering av externa eller egna data, alltså de två ovanstående kategorierna. Det gäller även i mycket begränsad omfattning när datafabriken (tillsammans med andra projekt) testar och demonstrerar dataflöden direkt från sensorer och plattformar i havet.
SCOOT enters AutoMonIn in order to support innovation and automation of marine environmental monitoring, in this case specifically biodiversity
https://medium.com/work-bench/todays-ai-software-infrastructure-landscape-and-trends-shaping-the-market-460d0c1c26d2
erbjuder gemensamma verktyg och metoder samt tillgängliggör data
www.oceanmooc.org
Scale, distirubution of kn
Vinnova – vision, måål
- datalabbet bidrar till datadrivna innovationer
- fungerar som en nationell experimentell verkstad inom sitt område
- erbjuder gemensamma verktyg och metoder samt tillgängliggör data